Ein führender ehemaliger Sicherheitsforscher von OpenAI hat ernste Bedenken über die rasante Entwicklung künstlicher Intelligenz geäußert. Steven Adler, der vier Jahre lang bei OpenAI tätig war, bezeichnete in mehreren Beiträgen auf der Plattform X (ehemals Twitter) das aktuelle Entwicklungstempo als besorgniserregend.
Wie Dan Milmo in The Guardian berichtet, leitete Adler bei OpenAI die Sicherheitsforschung für Produkteinführungen und langfristige KI-Systeme. Seine Hauptsorge gilt der Entwicklung der künstlichen allgemeinen Intelligenz (AGI). Kein Forschungslabor habe bisher das grundlegende Problem des KI-Alignments gelöst – die Abstimmung der KI auf menschliche Wertesysteme. Das hohe Entwicklungstempo verringere die Chancen, rechtzeitig geeignete Sicherheitslösungen zu finden, warnt Adler. Er kritisiert besonders den Wettbewerbsdruck in der Branche, der auch verantwortungsbewusste Unternehmen zu riskantem Handeln zwinge.
Diese Einschätzung teilt auch KI-Experte Geoffrey Hinton, während Meta-Wissenschaftler Yann LeCun die Risiken als geringer einstuft. Adlers Warnungen fallen in eine Zeit, in der das chinesische Unternehmen DeepSeek ein konkurrenzfähiges KI-Modell vorgestellt hat. Er fordert strenge Sicherheitsvorschriften für die Branche.