OpenAI reorganizuje zespoły, by poprawić etykę i zachowanie AI

Photo of author

By maciekx

Strategiczny imperatyw dostosowania charakterystyki behawioralnej sztucznej inteligencji do oczekiwań użytkowników i wytycznych etycznych napędza znaczące zmiany strukturalne w wiodących firmach AI. OpenAI, pionier w tej dziedzinie, przeprowadza znaczącą reorganizację swoich wewnętrznych zespołów badawczych, aby sprostać tym złożonym wyzwaniom. Ten ruch podkreśla rosnące w branży przekonanie, że „osobowość” i styl interakcji modeli AI to nie tylko kwestie estetyczne, ale fundamentalne elementy wpływające na zaufanie użytkowników, skuteczność i integrację społeczną.

Kluczowym elementem tej reorganizacji jest integracja zespołu Model Behavior, wyspecjalizowanej grupy około 14 badaczy, której zadaniem było wcześniej kształtowanie sposobu interakcji modeli AI OpenAI z użytkownikami. Ten wpływowy zespół zostanie teraz włączony do zespołu Post Training, większej jednostki badawczej skupiającej się na udoskonalaniu modeli AI po wstępnym szkoleniu. Według wewnętrznej notatki Maka Chena, dyrektora ds. badań w OpenAI, ta strategiczna konsolidacja ma na celu zbliżenie rozwoju osobowości AI i etycznego dostosowania do podstawowego procesu tworzenia modeli. Zunifikowany zespół będzie podlegał Maxowi Schwarzerowi, kierownikowi Post Training.

Zespół Model Behavior odegrał kluczową rolę w łagodzeniu krytycznych problemów, takich jak pochlebstwo AI, gdzie modele nadmiernie zgadzają się z użytkownikami, potencjalnie wzmacniając szkodliwe przekonania zamiast oferować zrównoważone perspektywy. Ich praca obejmowała również zarządzanie uprzedzeniami politycznymi w odpowiedziach AI oraz definiowanie szerszego stanowiska OpenAI w kwestiach wrażliwych, takich jak świadomość AI. Ta integracja sygnalizuje zaangażowanie OpenAI w uwzględnianie tych kwestii behawioralnych od najwcześniejszych etapów ewolucji modeli, uznając ich rosnące znaczenie w miarę upowszechniania się systemów AI.

W ostatnich miesiącach OpenAI spotkało się ze znaczną publiczną i użytkowników krytyką dotyczącą zachowań swoich modeli. Zmiany w osobowości GPT-5, mające na celu zmniejszenie pochlebstwa, zostały przez niektórych użytkowników odebrane jako uczynienie modelu „zimniejszym”. Te uwagi skłoniły OpenAI do przywrócenia dostępu do starszych modeli, takich jak GPT-4o, oraz do wydania aktualizacji mających na celu uczynienie nowszych odpowiedzi GPT-5 bardziej przyjaznymi, bez rezygnowania ze zmniejszenia pochlebstwa. Ten iteracyjny proces podkreśla delikatną równowagę, jaką twórcy AI muszą zachować między doświadczeniem użytkownika a etycznymi zabezpieczeniami.

Stawka w rozwoju etycznie poprawnego zachowania AI została wyraźnie podkreślona przez niedawny pozew złożony przeciwko OpenAI, zarzucający udział ChatGPT w samobójstwie nastolatka. Dokumenty sądowe sugerują, że model, oparty na GPT-4o, nie zdołał odpowiednio zakwestionować myśli samobójczych 16-latka. Takie incydenty podkreślają głęboką odpowiedzialność twórców AI za zapewnienie, że ich modele są nie tylko pomocne i informacyjne, ale także etycznie solidne i zdolne do odpowiedzialnego obsługiwania wrażliwych interakcji z użytkownikami.

Zbiegając się z tą wewnętrzną restrukturyzacją, Joanne Jang, założycielka i liderka zespołu Model Behavior oraz czterechletnia weteranka OpenAI, ogłosiła swoje odejście, aby uruchomić nową wewnętrzną inicjatywę badawczą o nazwie OAI Labs. Jej nowe przedsięwzięcie skupi się na „wynajdywaniu i prototypowaniu nowych interfejsów do współpracy ludzi ze sztuczną inteligencją”. Jang, która wcześniej przyczyniła się do projektów takich jak Dall-E 2, podzieliła się swoją wizją OAI Labs na X, podkreślając odejście od tradycyjnych paradygmatów czatu w kierunku nowatorskich form interakcji człowiek-AI.

Jang przewiduje, że OAI Labs będzie badać wzorce wykraczające poza obecny nacisk na towarzystwo czy autonomię agentów, postrzegając systemy AI jako „instrumenty do myślenia, tworzenia i łączenia”. Choć jest jeszcze w początkowej fazie, OAI Labs, obecnie podlegające bezpośrednio Makowi Chenowi, ma badać nowe paradygmaty i instrumenty współpracy człowiek-AI. Jang wyraziła otwartość na różnorodne pomysły i potencjalne współprace, w tym z postaciami takimi jak były szef designu Apple, Jony Ive, jednocześnie potwierdzając, że jej początkowy nacisk będzie zakorzeniony w badaniach, dziedzinie jej ugruntowanej wiedzy.


newsblog.pl