Gehalt über 500.000 US-Dollar: OpenAI sucht Aufpasser für ChatGPT
OpenAI sucht einen neuen Mitarbeiter, der den sicheren Umgang der KI-Dienste mit psychischen Erkrankungen gewährleistet und für Cybersicherheit einsteht.
OpenAI hat eine neue Stelle ausgeschrieben, wie der Firmenblog und CEO Sam Altman auf X verkünden. Das Gehalt: 555.000 US-Dollar und Aktienoptionen. Gesucht wird ein Head of Preparedness, der oder die ein „kleines, high-impact Team“ führt, das sich der Qualitätssicherung der KI-Modelle von OpenAI widmet. Anhand des Preparedness Frameworks untersucht das Unternehmen die Fähigkeiten und Risiken seiner Modelle, der Head of Preparedness ist verantwortlich für „Aufbau und Koordinierung von Fähigkeitsbewertungen, Bedrohungsmodellen und Maßnahmen, die eine kohärente, strenge und operativ skalierbare Sicherheitspipeline bilden“.
Die Stelle kommt neben den Gehaltsversprechen mit hohen Anforderungen. Im Grunde übernimmt der neue Mitarbeiter die Verantwortung dafür, dass OpenAIs Modelle sich wie gewünscht und nicht schädlich verhalten. Sam Altman beschreibt auf X etwa das Potenzial der eigenen Modelle im Bereich der mentalen Gesundheit. In den USA läuft aktuell eine Klage, da ein 16-Jähriger im Sommer 2025 mithilfe von ChatGPT nach einem intensiven Austausch über viele Sessions hinweg Suizid begangen hat. Forscher sehen generell große Risiken im Umgang der Sprachmodelle mit psychischen Erkrankungen. Auch Probleme mit der Cybersicherheit treten immer wieder auf und sind Teil der Rolle des Head of Preparedness. Zusätzlich fallen Maßnahmen bei Fragen nach biologischen Kampfstoffen oder ähnlich Schädlichem in den Zuständigkeitsbereich.
Sicherheit nach schlechter Presse auf einmal wichtig
Ob die Anforderungen mit einem kleinen Team zu erfüllen sind, sei dahingestellt. Das Thema Sicherheit scheint für OpenAI zumindest aus repräsentativen Gründen wieder wichtiger zu werden, wie die Stellenausschreibung nun medienwirksam zeigt – so berichtet etwa The Guardian von dem ausgeschriebenen Posten. Bisher schien OpenAI in dem Bereich eher Möglichkeiten zum Sparen zu sehen.
Denn ähnliche Anforderungen wie der Head of Preparedness sollten die im Mai und Oktober 2024 aufgelösten Teams zu Superalignment und der AGI Readiness erfüllen. Diese Gruppen arbeiteten an den Auswirkungen von KI-Systemen auf die Gesellschaft und daran, wie das Unternehmen sicherstellen könne, dass KI im Interesse der Menschen agiert. Zwar war die Arbeit von beiden Gruppen auf Superintelligenz (AGI, Artificial General Intelligence) ausgerichtet, jedoch beklagten die ausgeschiedenen Leiter und weitere ehemalige Mitarbeiter von OpenAI wieder und wieder mangelnde Ressourcen und . Beim Einsatz der aktuellen Varianten der Sprachmodelle entstehen etwa bei einigen Nutzerinnen und Nutzern , auch ganz ohne Superintelligenz.