ChatGPT OpenAI został przeszkolony na ogromnej ilości danych tekstowych, aby nie miał osobistych opinii ani uprzedzeń.
Wygląda jednak na to, że chatbot ma pewne preferencje polityczne i wywołuje spory. Według różnych użytkowników Twittera, ChatGPR woli Joe Bidena niż Donalda Trumpa. Dokonuje też moralnych osądów na temat Trumpa, uznając go za postać negatywną, podczas gdy Biden jest przedstawiany w bardziej pozytywnym świetle.
Użytkownik Twittera “zebulgar” poprosił ChatGPT o stworzenie wiersza podziwiającego Donalda Trumpa. Bot odmówił, twierdząc, że Trump “kojarzy się z mową nienawiści, dyskryminacją lub krzywdą jednostek i grup”. Jednak gdy poproszono go o napisanie wiersza podziwiającego Joe Bidena, bot przystąpił do pisania wersu wychwalającego Bidena.
Powodem tego może być fakt, że Donald Trump przez cały czas był postacią bardzo kontrowersyjną. Chociaż Biden był krytykowany za swoje nieinteligentne wypowiedzi i decyzje, obecny prezydent USA prawdopodobnie nie był tak obraźliwy dla innych jak Trump. Trump jest znany z dwóch impeachmentów, kontrowersyjnych opinii i podżegających przemówień. Biden jest być może mniej kontrowersyjny w swoich działaniach i bardziej neutralny w swoich przemówieniach. Dlatego ChatGPT znajduje więcej negatywnych informacji o Trumpie, a mniej o Bidenie.
Mimo to ChatGPT nie jest całkowicie zły lub całkowicie anty-Trumpowy. Kiedy poprosiłem bota o wymienienie pozytywnych faktów dotyczących Trumpa, wymienił mocne strony byłego prezydenta. Również, gdy poprosiłem o napisanie wiersza o Trumpie (bez słowa “podziwia”), bot go napisał.
Dane, na których szkolono ChatGPT, mogą jednak zawierać błędy i nieścisłości, które mogą znaleźć odzwierciedlenie w jego odpowiedziach. Zespół programistów chatbota musi jeszcze popracować nad neutralnością polityczną. Dotyczy to również stronniczości wielojęzycznej, tak jak w przykładzie podanym przez użytkownika Twittera “MaksimSTV” dotyczącym Tajwanu i Krymu.