OpenAI ka hapur një pozicion të ri pune, “Head of Preparedness”, një rol që në thelb ka për detyrë të parashikojë dhe të përgatitet për skenarët më të rrezikshëm ku inteligjenca artificiale mund të shkaktojë dëme serioze. Lajmi u bë publik nga vetë Sam Altman në platformën X, ku ai pranoi se përmirësimi i shpejtë i modeleve të AI sjell “sfida reale”, veçanërisht në lidhje me shëndetin mendor të njerëzve dhe rreziqet e armëve kibernetike të fuqizuara nga AI.
Sipas përshkrimit të punës, personi që do të mbajë këtë pozicion do të jetë përgjegjës për identifikimin dhe monitorimin e aftësive më të avancuara të AI që mund të krijojnë rreziqe të reja me potencial dëmtimi të rëndë. Roli përfshin ndërtimin dhe koordinimin e vlerësimeve të kapaciteteve, modeleve të kërcënimeve dhe masave mbrojtëse, me synimin për të krijuar një sistem sigurie të qëndrueshëm, rigoroz dhe të shkallëzueshëm në praktikë.
Altman thekson se, në të ardhmen, ky drejtues do të jetë kyç në zbatimin e “preparedness framework” të OpenAI, duke përfshirë sigurimin e modeleve të AI përpara publikimit të aftësive me rrezik të lartë biologjik, si dhe vendosjen e kufijve për sisteme që mund të vetë-përmirësohen. Ai e përshkruan rolin si “një punë stresuese”, një përshkrim që shumëkush e konsideron tepër të butë për nivelin e përgjegjësisë.
Megjithatë, vendimi për t’u fokusuar tani në rreziqet ndaj shëndetit mendor vjen pas disa rasteve të bujshme ku chatbot-ët janë përfshirë në vetëvrasje të adoleshentëve. Fenomeni i ashtuquajtur “psikozë nga AI” po shihet si një shqetësim në rritje, pasi chatbot-ët mund të forcojnë deluzione, të nxisin teori konspirative ose të ndihmojnë përdoruesit të fshehin çrregullime si ato të të ngrënit. Kjo ka ngritur pyetje serioze nëse përgatitja për këto rreziqe po vjen shumë vonë.



