⏩ ドミノ倒しに進んでいた安全性重視のカルチャー、解体か
⏩ 元従業員を沈黙させる、厳しい契約条件も露呈
⏩ 全人類への利益を謳う使命にも疑義
2024年5月14日(現地時間)、OpenAI 共同創業者で主任研究員だったイリヤ・サツケヴァー氏が同社を去った。同氏は、2023年7月に OpenAI 内部に結成されたスーパーアライメント・チームで、高度な AI システムの安全確保に注力する研究を率いていた。
そして、同じくスーパーアライメント・チームを率いていたヤン・ライケ氏も退職を発表している。
当初、サツケヴァー氏もライケ氏も、退職した理由の多くを語っていなかった。サツケヴァー氏は「OpenAI が安全かつ有益な AGI を構築すると信じています」としたうえで「次に何が起こるか楽しみにしています」という非常に典型的なメッセージを寄せた。
ライケ氏に至っては、「辞職しました」とだけ言い残した。2人が多くを語らない理由については、明確な理由があると示唆されている(詳細は後述)。
今回、人間の知性を超える AI の安全性確保に注力するチームが事実上解散されたとあって、懸念が広がっている。ただ、後述するように、OpenAI の安全性に関する懸念については、昨日今日始まった話ではなく徐々に進行していた。
なぜ現在、OpenAI をめぐって懸念が噴出するに至っているのだろうか。
何が起きていたのか
OpenAI の安全性に関わるチームは突如として解散したわけではなく、徐々にその解体は進んでいた。内部事情に詳しい関係者は、その過程を「ドミノ倒しのよう」と語っている。