San Francisco, Stany Zjednoczone:
OpenAI wyraża obawy, że realistyczna funkcja głosowa sztucznej inteligencji może spowodować przywiązanie ludzi do robota kosztem interakcji międzyludzkich.
Firma z San Francisco powołała się na literaturę, która według niej sugeruje, że rozmowa z sztuczną inteligencją tak, jak rozmowa z inną osobą, może prowadzić do nieuzasadnionego zaufania, a wysoka jakość dźwięku GPT-4o może pogorszyć ten efekt.
„Humanizacja obejmuje przypisywanie ludzkich zachowań i cech podmiotom innym niż ludzkie, takim jak modele sztucznej inteligencji” – stwierdziła OpenAI w czwartek w raporcie na temat prac związanych z bezpieczeństwem, które wykonuje w wersji ChatGPT-4o swojej sztucznej inteligencji.
„Ryzyko to może zwiększyć możliwości głosowe GPT-4o, które ułatwiają interakcję z modelem bardziej przypominającą człowieka”.
OpenAI stwierdziło, że zaobserwowało, jak testerzy rozmawiali z sztuczną inteligencją w sposób wskazujący na wspólną więź, na przykład głośno narzekając, że to ich ostatni wspólny dzień.
Powiedziała, że schorzenia te wydają się łagodne, ale należy je zbadać, aby zobaczyć, jak mogą rozwijać się w dłuższych okresach czasu.
OpenAI spekuluje, że kontakty towarzyskie ze sztuczną inteligencją mogą sprawić, że użytkownicy będą mniej wykwalifikowani lub skłonni do relacji z ludźmi.
„Długotrwała interakcja z modelem może wpływać na normy społeczne” – stwierdzono w raporcie.
„Na przykład nasze modele okazują szacunek, umożliwiając użytkownikom przerwanie i „branie mikrofonu” w dowolnym momencie, czego oczekuje się od sztucznej inteligencji, ale jest to sprzeczne z normą w interakcjach międzyludzkich”.
Według OpenAI zdolność sztucznej inteligencji do zapamiętywania szczegółów podczas rozmowy i wykonywania zadań może sprawić, że ludzie będą nadmiernie uzależnieni od technologii.
Alon Yamin, współzałożyciel i dyrektor generalny platformy do wykrywania plagiatów Copyleaks, powiedział: „Ostatnie obawy wyrażone przez OpenAI dotyczące potencjalnego polegania na trybie głosowym w ChatGPT wskazują na to, o co wielu już zaczęło pytać: czy czas się zatrzymać i zastanowić, w jaki sposób ta technologia wpływa na zaangażowanie i relacje”.
Sztuczna inteligencja nigdy nie powinna zastępować rzeczywistej interakcji międzyludzkiej – stwierdził.
OpenAI oświadczyło, że będzie dalej testować, w jaki sposób możliwości głosowe sztucznej inteligencji mogą sprawić, że ludzie będą łączyć się emocjonalnie.
Zespołom testującym możliwości głosowe ChatGPT-4o udało się również nakłonić go do powtarzania fałszywych informacji i tworzenia teorii spiskowych, co wzbudziło obawy, że można nakazać modelowi sztucznej inteligencji, aby zrobił to w przekonujący sposób.
W czerwcu OpenAI było zmuszone przeprosić aktorkę Scarlett Johansson za użycie czegoś bardzo podobnego do jej głosu w swoim najnowszym chatbocie, rzucając światło na technologię klonowania głosu.
Chociaż OpenAI zaprzeczyło, jakoby głos, którego używał, należał do Johanssona, ich sprawę spotkało się z poparciem dyrektora generalnego Sama Altmana, który odniósł się do nowego modelu za pomocą jednowyrazowego komunikatu w mediach społecznościowych – „Jej”.
Johansson podkłada głos postaci ze sztuczną inteligencją w filmie „Her”, który według Altmana jest jego ulubionym filmem o technologii.
W wyprodukowanym w 2013 roku filmie Joaquin Phoenix wciela się w mężczyznę zakochującego się w asystentce sztucznej inteligencji o imieniu Samanta.
(Z wyjątkiem nagłówka, ta historia nie została zredagowana przez personel NDTV i została opublikowana z kanału konsorcjalnego.)