OtwórzAILP Firma poinformowała dzisiaj, że jej najnowszy generator zamiany tekstu na obraz AI, DALL-E 3, jest teraz dostępny dla użytkowników ChatGPT Plus i Enterprise poprzez bezpośrednią integrację z aplikacją ChatGPT, a także wdrożyła różne środki bezpieczeństwa w celu ograniczenia szkodliwego modułu obrazującego Pokolenie.
Firma zaprezentowała DALL-E 3 w zeszłym miesiącu, mówiąc o różnych ulepszeniach, które dodała w porównaniu do swojego poprzednika, DALL-E 2. Dzięki DALL-E 3 użytkownicy mogą korzystać z ChatGPT, aby pisać dłuższe, bardziej opisowe podpowiedzi i kanały te w to.
OpenAI stwierdziło, że w porównaniu do DALL-E 2 nowy model może tworzyć obrazy, które są nie tylko ostrzejsze wizualnie, ale także ostrzejsze w szczegółach. „DALL-E 3 może niezawodnie renderować złożone szczegóły, w tym tekst, dłonie i twarze” – wyjaśniła firma w oświadczeniu. Post na blogu. „Ponadto szczególnie dobrze reaguje na polecenia panoramowania i szczegółowe, a także obsługuje współczynniki proporcji w poziomie i w pionie”.
Kolejną nową funkcją DALL-E 3 jest możliwość tworzenia tekstu i typografii osadzonych w tworzonych obrazach. Dzięki temu jest szczególnie przydatny dla tych, którzy chcą tworzyć treści biznesowe, takie jak materiały marketingowe lub inspiracje do projektów produktów, twierdzi OpenAI. Dodała, że pod tym względem przewyższa wielu swoich konkurentów w zakresie generowania obrazów za pomocą sztucznej inteligencji, m.in. Firefly 2 firmy Adobe Inc. i Stabilna dyfuzja od Stability.AI Ltd.
Wkrótce po pierwszej zapowiedzi DALL-E 3 został on dodany do czatu Bing i generatora obrazów Bing firmy Microsoft Corp. Użytkownicy ChatGPT Plus i Enterprise mogą mieć dostęp dopiero teraz, ale przynajmniej będą traktowani priorytetowo, z możliwością tworzenia większej liczby obrazów niż zwykli użytkownicy i robienia tego szybciej.
W sprawie Bariery bezpieczeństwa OpenAI zostało wdrożone, a to wynika z raportów użytkowników Szkodliwe obrazy W World Trade Center jest przedstawiany jako SpongeBob SquarePants odpierający atak samolotów przypominających inne postacie.
„Korzystamy z wielopoziomowego systemu bezpieczeństwa, aby ograniczyć zdolność DALL E 3 do tworzenia potencjalnie szkodliwych obrazów, w tym zawierających przemoc, treści dla dorosłych lub treści nienawiści” – napisała firma. „Przeprowadzamy kontrole bezpieczeństwa monitów użytkownika i powstałych obrazów, zanim staną się one widoczne dla użytkowników. Współpracowaliśmy również z pierwszymi użytkownikami i ekspertami z czerwonych zespołów, aby zidentyfikować i wyeliminować luki w naszych systemach bezpieczeństwa, które pojawiły się dzięki nowym możliwościom modułowym. Na przykład pomogły nam opinie identyfikujemy przypadki skrajne do tworzenia treści. Grafika, np. obrazy o charakterze seksualnym, testuje zdolność modelu do tworzenia przekonujących obrazów wprowadzających w błąd.
Inne zabezpieczenia skupiają się na ograniczeniu możliwości DALL-E 3 do tworzenia treści w stylu żyjących artystów i portretów osób publicznych. Wreszcie podjęła także wysiłki, aby poprzez swoje obrazy zwiększyć reprezentację demograficzną.
Aby promować przejrzystość, OpenAI stworzyło stronę internetową prezentującą badania, które doprowadziły do stworzenia DALL-E 3, wraz z klasyfikatorem obrazu, który może stwierdzić, czy obraz został utworzony za pomocą własnych narzędzi z dokładnością od 95% do 99%.
Zdjęcie: D-E3
Twój głos jest dla nas ważny i pomaga nam zachować wolność treści.
Jedno kliknięcie poniżej wspiera naszą misję zapewniania bezpłatnych, pogłębionych i odpowiednich treści.
Dołącz do naszej społeczności na YouTube
Dołącz do społeczności ponad 15 000 ekspertów #CubeAlumni, w tym dyrektora generalnego Amazon.com Andy’ego Jassy’ego, założyciela i dyrektora generalnego firmy Dell Technologies Michaela Della, dyrektora generalnego firmy Intel Pata Gelsingera oraz wielu innych znanych osobistości i ekspertów.
Dziękuję