Napisane przez Jeffreya Dustina i Annę Tong
SAN FRANCISCO — Alphabet Inc ostrzega pracowników o tym, jak używają chatbotów, w tym Barda, jednocześnie sprzedaje oprogramowanie na całym świecie, cztery osoby zaznajomione z tą sprawą powiedziały Reuterowi.
Rodzic Google poradził pracownikom, aby nie wprowadzali swoich poufnych materiałów do inteligentnych chatbotów, powiedzieli ludzie, a firma potwierdziła, powołując się na wieloletnią politykę ochrony informacji.
Chatboty, wśród nich Bard i ChatGPT, to podobne do ludzi programy, które wykorzystują tzw. generatywną sztuczną inteligencję do prowadzenia rozmów z użytkownikami i odpowiadania na niezliczone podpowiedzi. Czaty mogą być czytane przez recenzentów, a badacze odkryli, że podobna sztuczna inteligencja może odtwarzać dane, które wyssała podczas szkolenia, stwarzając ryzyko wycieku.
Niektórzy twierdzą, że Alphabet ostrzegł również swoich inżynierów, aby unikali bezpośredniego używania kodu komputerowego, który mogą generować chatboty.
Poproszona o komentarz, firma powiedziała, że Bard może zgłaszać niezamówione sugestie dotyczące kodu, ale mimo to pomaga programistom. Google powiedział również, że chce być przejrzysty w kwestii ograniczeń swojej technologii.
Obawy pokazują, jak Google chce uniknąć szkód biznesowych ze strony programów, które uruchomił w konkurencji z ChatGPT. Stawką w wyścigu Google ze zwolennikami ChatGPT OpenAI i Microsoft Corp są miliardy dolarów inwestycji i wciąż niewypowiedziane przychody z reklam i chmury z nowego oprogramowania AI.
Ostrzeżenie Google odzwierciedla również to, co stało się standardem bezpieczeństwa dla firm, ostrzegając osoby przed korzystaniem z publicznie dostępnych chatbotów.
Rosnąca liczba firm na całym świecie umieszcza piaskownice na chatbotach AI, firmy powiedziały Reuterowi, wśród nich Samsung, Amazon.com i Deutsche Bank. Podobno Apple, które nie odpowiedziało na prośby o komentarz, również to zrobiło.
Około 43% profesjonalistów korzystało od stycznia z ChatGPT lub innych narzędzi sztucznej inteligencji, często bez informowania o tym swoich szefów, wynika z ankiety przeprowadzonej na prawie 12 000 respondentów, w tym z największych amerykańskich firm, przeprowadzonej przez witrynę sieciową Fishbowl.
W lutym Google poprosił pracowników, którzy testują Barda przed jego wprowadzeniem na rynek, aby nie podawali informacji wewnętrznych, donosi Insider. Google wprowadza teraz Bard w ponad 180 krajach i w 40 językach jako odskocznię do kreatywności, a jego zastrzeżenia dotyczą sugestii dotyczących kodu.
Google powiedział Reuterowi, że przeprowadził szczegółowe rozmowy z irlandzką Komisją Ochrony Danych, ponieważ odpowiada na pytania organów regulacyjnych, po wtorkowym raporcie Politico, że firma opóźnia uruchomienie Bard w UE w tym tygodniu, czekając na więcej informacji na temat wpływu chatbota na prywatność.
Obawy dotyczące wrażliwych informacji
Taka technologia może tworzyć wiadomości e-mail, dokumenty, a nawet same programy, obiecując wykładnicze przyspieszenie zadań. Treści te mogą jednak zawierać fałszywe informacje, dane wrażliwe, a nawet chronione prawem autorskim fragmenty powieści „Harry Potter”.
Informacja o ochronie prywatności Google, zaktualizowana 1 czerwca, również stwierdza: „Nie podawaj poufnych ani wrażliwych informacji w rozmowach z Bard”.
Niektóre firmy opracowały oprogramowanie, które rozwiązuje takie problemy. Na przykład Cloudflare, która chroni strony internetowe przed cyberatakami i oferuje inne usługi w chmurze, oferuje firmom możliwość oznaczania i ograniczania niektórych danych z odpływu.
Google i Microsoft oferują również narzędzia konwersacyjne klientom biznesowym, którzy pobierają wyższą cenę, ale powstrzymują się od przyjmowania danych do ogólnych modeli AI. Domyślnym ustawieniem w Bard i ChatGPT jest zapisywanie historii czatów użytkowników, którą użytkownicy mogą usunąć.
Yousef Mahdi, dyrektor ds. marketingu konsumenckiego Microsoftu, powiedział, że „ma sens”, że firmy nie chcą, aby ich pracownicy korzystali z publicznych chatbotów w pracy.
„Firmy słusznie przyjmują konserwatywne podejście” — powiedział Mehdi, wyjaśniając, jak darmowy chatbot Bing firmy Microsoft wypada w porównaniu z oprogramowaniem dla przedsiębiorstw. „Tam nasze zasady są znacznie surowsze”.
Microsoft odmówił komentarza na temat tego, czy ma ogólny zakaz wprowadzania przez pracowników poufnych informacji do publicznych programów sztucznej inteligencji, w tym własnych, chociaż inny dyrektor powiedział Reuterowi, że osobiście ograniczył ich wykorzystanie.
Pisanie poufnych spraw do chatbotów było jak „zrzucanie grupy doktorantów na twoje prywatne akta” – powiedział dyrektor generalny Cloudflare, Matthew Prince.
(Reportaż Jeffreya Dustina i Anny Tong w San Francisco; montaż autorstwa Kennetha Lee i Nicka Ziemińskiego)