Obawy, że sztuczna inteligencja może sprawić, że ludzie będą częściej komunikować się z robotami niż z ludźmi

Obawy, że sztuczna inteligencja może sprawić, że ludzie będą częściej komunikować się z robotami niż z ludźmi

Kontakty towarzyskie ze sztuczną inteligencją mogą również sprawić, że użytkownicy będą mniej biegli w relacjach z (anamorficznymi) ludźmi.

San Francisco, Stany Zjednoczone:

OpenAI wyraża obawy, że realistyczna funkcja głosowa sztucznej inteligencji może spowodować przywiązanie ludzi do robota kosztem interakcji międzyludzkich.

Firma z San Francisco powołała się na literaturę, która według niej sugeruje, że rozmowa z sztuczną inteligencją tak, jak rozmowa z inną osobą, może prowadzić do nieuzasadnionego zaufania, a wysoka jakość dźwięku GPT-4o może pogorszyć ten efekt.

„Humanizacja obejmuje przypisywanie ludzkich zachowań i cech podmiotom innym niż ludzkie, takim jak modele sztucznej inteligencji” – stwierdziła OpenAI w czwartek w raporcie na temat prac związanych z bezpieczeństwem, które wykonuje w wersji ChatGPT-4o swojej sztucznej inteligencji.

„Ryzyko to może zwiększyć możliwości głosowe GPT-4o, które ułatwiają interakcję z modelem bardziej przypominającą człowieka”.

OpenAI stwierdziło, że zaobserwowało, jak testerzy rozmawiali z sztuczną inteligencją w sposób wskazujący na wspólną więź, na przykład głośno narzekając, że to ich ostatni wspólny dzień.

Powiedziała, że ​​schorzenia te wydają się łagodne, ale należy je zbadać, aby zobaczyć, jak mogą rozwijać się w dłuższych okresach czasu.

OpenAI spekuluje, że kontakty towarzyskie ze sztuczną inteligencją mogą sprawić, że użytkownicy będą mniej wykwalifikowani lub skłonni do relacji z ludźmi.

„Długotrwała interakcja z modelem może wpływać na normy społeczne” – stwierdzono w raporcie.

„Na przykład nasze modele okazują szacunek, umożliwiając użytkownikom przerwanie i „branie mikrofonu” w dowolnym momencie, czego oczekuje się od sztucznej inteligencji, ale jest to sprzeczne z normą w interakcjach międzyludzkich”.

Według OpenAI zdolność sztucznej inteligencji do zapamiętywania szczegółów podczas rozmowy i wykonywania zadań może sprawić, że ludzie będą nadmiernie uzależnieni od technologii.

Alon Yamin, współzałożyciel i dyrektor generalny platformy do wykrywania plagiatów Copyleaks, powiedział: „Ostatnie obawy wyrażone przez OpenAI dotyczące potencjalnego polegania na trybie głosowym w ChatGPT wskazują na to, o co wielu już zaczęło pytać: czy czas się zatrzymać i zastanowić, w jaki sposób ta technologia wpływa na zaangażowanie i relacje”.

Sztuczna inteligencja nigdy nie powinna zastępować rzeczywistej interakcji międzyludzkiej – stwierdził.

OpenAI oświadczyło, że będzie dalej testować, w jaki sposób możliwości głosowe sztucznej inteligencji mogą sprawić, że ludzie będą łączyć się emocjonalnie.

Zespołom testującym możliwości głosowe ChatGPT-4o udało się również nakłonić go do powtarzania fałszywych informacji i tworzenia teorii spiskowych, co wzbudziło obawy, że można nakazać modelowi sztucznej inteligencji, aby zrobił to w przekonujący sposób.

W czerwcu OpenAI było zmuszone przeprosić aktorkę Scarlett Johansson za użycie czegoś bardzo podobnego do jej głosu w swoim najnowszym chatbocie, rzucając światło na technologię klonowania głosu.

Chociaż OpenAI zaprzeczyło, jakoby głos, którego używał, należał do Johanssona, ich sprawę spotkało się z poparciem dyrektora generalnego Sama Altmana, który odniósł się do nowego modelu za pomocą jednowyrazowego komunikatu w mediach społecznościowych – „Jej”.

Johansson podkłada głos postaci ze sztuczną inteligencją w filmie „Her”, który według Altmana jest jego ulubionym filmem o technologii.

W wyprodukowanym w 2013 roku filmie Joaquin Phoenix wciela się w mężczyznę zakochującego się w asystentce sztucznej inteligencji o imieniu Samanta.

(Z wyjątkiem nagłówka, ta historia nie została zredagowana przez personel NDTV i została opublikowana z kanału konsorcjalnego.)

Halsey Andrews

„Lekarz gier. Fanatyk zombie. Studio muzyczne. Kawiarni ninja. Miłośnik telewizji. Miły fanatyk alkoholik.

Rekomendowane artykuły

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *