Modele AI mogą uczyć się i zapamiętywać pewne dane i konkretne obrazy, co budzi niepokój.
Jest wiele najnowocześniejszych technologii, które budzą zachwyt, a ktoś je pozywa. W tym przypadku pozwany został twórca modelu StableDiffusion. StableDiffusion to całkowicie open-source’owa i bezpłatna sztuczna inteligencja, która potrafi tworzyć grafikę na podstawie zapytania tekstowego. Można ją wykorzystać do tworzenia fotorealistycznych obrazów lub takich, które są inspirowane stylami innych artystów.
Jest jednak oczywiste, że artyści nie doceniają tego stanowiska; ArtStation, swego rodzaju Instagram dla artystów, zorganizował nawet strajk “No AI”. Kluczowym argumentem, jaki podnoszą, jest to, że modele pociągów na zdjęciach nie są własnością StabilityAI.
Proszę sobie wyobrazić, że ktoś zrobił zdjęcie Pani na spotkaniu z przyjaciółmi i wrzucił je na Instagram. Następnie SI dostałaby je w swoje ręce, a zdjęcie zostałoby przeanalizowane przez model i wykorzystane do treningu.
Modele mogą uczyć się i zapamiętywać pewne dane i konkretne zdjęcia, co jest niepokojące. Innymi słowy, szantażysta może wziąć zapytanie o spotkanie z przyjaciółmi i na tej podstawie zsyntetyzować przesłane przez Państwa zdjęcie. To już jest trochę niepokojące, zwłaszcza że zbiór treningowy StableDiffusion zawiera ponad 5 miliardów zdjęć z Internetu, w tym zdjęcia prywatne, które kiedyś były publiczne. Niewłaściwe wykorzystanie prywatnych zdjęć niestety się zdarza. W 2013 roku lekarz zrobił zdjęcie pacjentowi, które pojawiło się na stronie internetowej kliniki.
Oto artykuł, w którym pokazano, jak pozyskiwano obrazy za pomocą różnych modeli AI i jak bardzo pasowały one do obrazów szkoleniowych (spoiler: jest trochę szumu, ale ogólnie są bardzo podobne). Obrona ta ma zastosowanie do wyżej wymienionego pozwu, a ława przysięgłych będzie inaczej postrzegać te modele w tym przypadku, ponieważ możemy twierdzić, że zapamiętują i powielają rzeczy (bez praw do tego).
Jednak jest jeszcze za wcześnie, aby twierdzić, że “modele uczą się i nic nie wymyślają”, ponieważ, jak już wspomniałem, z 5 miliardów sesji treningowych powstało tylko 100 obrazów (autorzy zaznaczyli ręką 1000 najbardziej podobnych generacji dla najczęstszych podpowiedzi, ale w większości przypadków nie było duplikatów).