Wiele osób ma obawy związane z niewłaściwymi zastosowaniami sztucznej inteligencji. Należy do nich również Elon Musk, który wspiera naukowców pracujących nad “mądrymi” maszynami. Dlatego miliarder zainteresował się organizacją OpenAI – startupem, który opracował sztuczną inteligencję potrafiącą ograć graczy Dota 2. OpenAI ma również na swoim koncie bardzo imponujący generator logicznych i spójnych tekstów. Jednak Elon Musk stwierdził, że jego wizja AI jest zupełnie inna niż ludzi z OpenAI.
Elon Musk uchodzi za jednego z największych wizjonerów technologicznych współczesnego świata. Miliarder nie tylko wierzy w przyszłość z dostępnymi dla każdego lotami kosmos, w pełni autonomicznymi samochodami oraz etyczną (tj. wspierającą człowieka) sztuczną inteligencję. On ją również tworzy. Dlatego nikt nie zdziwił się, kiedy w październiku 2015 Elon Musk oraz Sam Altman założyli organizację non-profit OpenAI. Startup miał wtedy bardzo jasne przesłanie. Chodziło wtedy o stworzenie sztucznej inteligencji, która przysłuży się ludzkości. Elon Musk od samego początku ostrzegał nas przed dawaniem komputerom zbyt dużej swobody i kontroli nad naszym życiem. Czy pracownicy OpenAI odbiegli od tych założeń?
Wszyscy zastanawiają się nad prawdziwą przyczyną odejścia Elona Muska z OpenAI
Organizacja OpenAI ma na swoim koncie wiele spektakularnych (pod kątem marketingowym) sukcesów. Firma jest przede wszystkim z opracowania sztucznej inteligencji, która pokonała profesjonalnych graczy gry sieciowej Dota 2. Na początku bot nauczył się, jak radzić sobie w pojedynkach 1 na 1. Rok później OpenAI przygotowała do wirtualnej walki drużynę współpracujących ze sobą 5 botów. Nad podobnym projektem pracuje należąca do Google firma DeepMind. Przy czym tutaj twórcy sztucznej inteligencji skupili się na grze StarCraft II. Jaki jest cel tych projektów? Jedni mówią o potencjalnym wykorzystaniu sztucznej inteligencji do urozmaicenia zabawy żywym graczom. Można nawet pokusić się o stworzenie personalnych trenerów sparingowych. Z kolei twórcy gier myślną nad zastosowaniem sztucznej inteligencji do testowania poprawek mających poprawić balans gier.
Jednak OpenAI ma na swoim koncie inny kontrowersyjny projekt. Chodzi o projekt GTP2. Naukowcy opracowali algorytm, który na podstawie analizy 40 GB przeanalizowanego tekstu starał się przewidzieć następne do napisania słowo. Zapętlenie takiego programu może posłużyć do generowania całych tekstów. Problem polega tylko na tym, żeby powstały w ten sposób artykuł był spójny i logiczny. Udało się. OpenAI tak wyuczyło swoją sztuczną inteligencję, że jakość generowanych tekstów zaskoczyła samych twórców. Organizacja od razu ogłosiła, że nie udostępni wyuczonego modelu. GTP2 generuje zbyt dobre teksty i mógłby posłużyć do masowego zaśmiecenia sieci fake news’ami. Poniżej macie kilka przykładów. Trochę przeraża mnie fakt, że teksty te napisała maszyna.
Czy OpenAI wyciągnie z tego jakieś wnioski? Całkiem możliwe, że tak. Firma zamierza zasilić swoje szeregi naukowcami specjalizującymi się w naukach społecznych.
Źródło: Inverse