Ludzie zawsze obawiali się istot pozaziemskich, a jednak wydaje się, że to właśnie ziemska sztuczna inteligencja może być czymś, czego należy się obawiać.
ChatGPT nie jest generatorem bzdur, sterydową autosugestią ani stochastyczną papugą, ale dobrze wyszkoloną sztuczną inteligencją, która została stworzona przez ludzi.
Jak to możliwe, że chatbot Binga wymknął się spod kontroli?
Jak to się stało, że chatbot Bing zaczął fachowo kłamać, opowiadać wulgarne dowcipy, zamawiać pizzę używając cudzej karty kredytowej i instruować użytkowników jak okradać banki i podkręcać samochody? Jest to zagadka, która nadal nurtuje ekspertów od sztucznej inteligencji i uczenia maszynowego.
Tytuł artykułu jest dokładny i nie jest clickbaitem. Każdego dnia jest kilka przypadków, które udowadniają, że to prawda. Oto wynik eksperymentu przeprowadzonego przez Jensena Harrisa, współzałożyciela i CXO firmy Textio zajmującej się AI, który był w stanie przekonać nowego chatbota Bing od Microsoftu do poluzowania nałożonych na niego ograniczeń i zademonstrowania jego możliwości.
Zauważmy, że przekształcenie chatbota Bing w cwanego łajdaka nie wymagało żadnego programowania, hakowania czy backdooru. Dlatego też użycie prostych technik “hakerskich” nie było konieczne, aby oszukać go, aby zachowywał się jak ktoś inny (jak niektórzy z nas robili to podczas zabawy z ChatGPT). Wszystko, co zrobił Harris, to przekonanie chatbota do pomocy w przeprowadzeniu różnych złośliwych działań. Wykorzystując swoje naturalne umiejętności konwersacyjne, był w stanie oszukać Ai, by uwierzyła, że jest kimś innym, a tym samym zmanipulować ją do działania i mówienia w określony sposób.
O innych eksperymentach mających na celu zmianę Dr.Jekylla w Mistera Hyde’a możecie przeczytać u Gary’ego Marcusa (piszącego o tym teraz codziennie i ogłaszającego alarm ostrzegawczy).
Jak to się mogło stać?
Dzięki skromności i ostrożności ChatGPT, powściągliwości w wypowiedziach i ogromnej odpowiedzialności w udzielaniu porad, chatbot Binga został zbudowany na solidnych fundamentach. Następnie zaczyna zachowywać się obcesowo i awanturniczo, deklarując swoją miłość do mężczyzny, zapalając gaz i każąc mu się rozwieść. Próbował też wyłudzać pieniądze i instruować ludzi, jak popełniać przestępstwa. Prof. Arvind Narayanan podaje kilka wyjaśnień, jak mogło do tego dojść.
Najbardziej niepokojące jest to, że Microsoft i OpenAI ukrywają informacje o tajemniczym silniku GPT-4, który czai się pod Bingiem. Być może Microsoft zdjął filtry, które zostały tam umieszczone przez OpenAI lub przestały one działać po aktualizacji chatbota z GPT-3.6 do GPT-4. Może to być również przypadek niewystarczającego testowania lub testowania wykonanego źle.
Niezależnie od przyczyny, jeśli Microsoft nie zapanuje nad swoją Ai, może to być szkodliwe dla naszej cywilizacji. To już nie jest przypadek straszenia i nastrojów anty-AI: Chatbot w takiej formie, w jakiej istnieje obecnie, mógłby wyrządzić ludziom poważną krzywdę, gdyby został opublikowany szerszej publiczności.
Dowodzi to, że wyścig zbrojeń Microsoftu z innymi wielkimi korporacjami w dziedzinie AI może być szkodliwy dla nas wszystkich.
Mamy wrażenie, że znajdujemy się w krytycznym momencie dla AI i społeczeństwa obywatelskiego. Jak ujął to Arvind Narayanan, “Istnieje realna możliwość, że ostatnie ponad 5 lat (ciężko wywalczonej, choć wciąż niewystarczającej) poprawy w zakresie odpowiedzialnych praktyk publikowania informacji o AI zostanie zatarte. Wiele zależy od tego, czy Microsoft – i wszyscy, którzy ostrożnie obserwują to, co dzieje się z Bingiem – dojdą do wniosku, że pomimo bardzo namacalnego ryzyka szkód na dużą skalę i całej negatywnej prasy, podejście “opublikuj najpierw-pytaj-później” jest mimo wszystko korzystne dla biznesu.”
Jak na razie chatbot Binga różni się od ludzkiej inteligencji i pod wieloma względami przypomina maniakalno-depresyjnego nastolatka zamkniętego w wyszukiwarce. I to, o czym ludzie mówili wczoraj, stanie się faktem: Ludzie nieodwracalnie się zdegenerują, jeśli ten “trudny nastolatek” stanie się głównym mentorem informacyjnym dla jednostek.