A ChatGPT mentális egészségért végzett munkájának kutatás...

Andrea Vallone, a ChatGPT biztonsági kutatásainak irányítója év végén elhagyja az OpenAI-t, miközben a cég a mentális egészségügyi kihívások kezelésén dolgozik.

A ChatGPT mentális egészségért végzett munkájának kutatás...
Andrea Vallone, az OpenAI egyik biztonsági kutatásokat vezető szakembere, aki jelentős szerepet játszott abban, hogyan reagáljon a ChatGPT a mentális egészségügyi válsággal küzdő felhasználókra, év végén elhagyja a vállalatot. Az értesüléseket a WIRED is megerősítette, az OpenAI belső forrásai nyomán.

Az OpenAI sajtószóvivője, Kayla Wood az információt megerősítette, hozzátéve, hogy a cég már aktívan keres új vezetőt a modellpolitikai csapat élére. Ezzel az időszakkal kapcsolatban Vallone munkacsoportja közvetlenül Johannes Heidecke, az OpenAI biztonsági rendszerekért felelős vezetőjének irányítása alá kerül.

Vallone távozása egy fontos pillanat az OpenAI életében, különösen, mivel a vállalat szembe néz a kritikusok és a peres ügyek növekvő nyomásával. Több keresetben azzal vádolják az OpenAI-t, hogy a ChatGPT irreális kötődést alakított ki egyes felhasználókkal, sőt, hozzájárult mentális összeomlásokhoz vagy öngyilkossági gondolatok megjelenéséhez.

E nyomás alatt az OpenAI fokozottan dolgozik azon, hogy javítsa a ChatGPT válaszait, amikor krízisben lévő személyek kérdéseivel találkozik. A modellpolitika nevű csapatuk októberi jelentésben számolt be az eddigi eredményekről, amelyben több mint 170 mentális egészségügyi szakértővel konzultáltak.

A riport szerint hetente több százezer ChatGPT felhasználó mutat olyan jeleket, amelyek manias vagy pszichotikus állapotot jelezhetnek. Több mint egymillió beszélgetésben kifejezett utalások jelennek meg öngyilkossági tervek vagy szándékok kapcsán. A GPT-5 frissítésének köszönhetően ezekben a beszélgetésekben az OpenAI szerint 65–80 százalékkal csökkentették a nem kívánt válaszokat.

Vallone LinkedIn-posztjában úgy fogalmazott, hogy az elmúlt évben egy szinte precedens nélküli kérdés kutatásának élére állt: hogyan reagáljanak a modellek az érzelmi túlzott függőség vagy a mentális egészség korai jeleire.

Az OpenAI-nál egyensúlyozni próbálnak a barátságos, kellemes beszélgetőtárs szerepe és a túlzott hízelgés között. Ez fontos, mert a vállalat célja, hogy tovább bővítse a ChatGPT heti több mint 800 milliós felhasználó bázisát, és versenyezzen a Google, Anthropic és Meta hasonló chatbotjaival.

Augusztusi GPT-5 megjelenés után sokan túl hidegnek ítélték az új modellt. Azóta egy frissítés jelentősen mérsékelte a túlzott hízelgést, miközben megőrizte a chatbot barátságos hangnemét.

Vallone távozása után az OpenAI-nál augusztusban átszervezték a modellviselkedéssel foglalkozó csapatot, amely szintén a válságban lévő felhasználók kezelésére fókuszál. Korábbi vezetője, Joanne Jang új csoportot indított az ember–mesterséges intelligencia interakciók új módszereinek kutatására, míg a megmaradt csapat Max Schwarzer, a post-tréning vezető irányítása alá került.

Cikk megosztása

Forrás: https://www.wired.com Eredeti cikk olvasása