OpenAI、alignment・misuse research向けSafety Fellowshipの募集を開始
Original: OpenAI opens applications for a Safety Fellowship focused on alignment and misuse research View original →
OpenAIの4月6日のX投稿は、AI safetyとalignment研究に取り組むexternal researchers、engineers、practitioners向けの新しいfellowship programを発表した。リンク先の公式発表では、OpenAI Safety Fellowshipはadvanced AI systemsのsafetyとalignmentに関するrigorousでhigh-impactな研究を支援するpilot programだと説明されている。product launchではないが、safety talentとresearch outputを外部にも広げる制度として意味は大きい。
programの設計はかなり具体的だ。OpenAIによれば、fellowshipは2026年9月14日から2027年2月5日まで実施され、応募締切は5月3日、採択通知は7月25日となる。priority areaにはsafety evaluation、ethics、robustness、scalable mitigations、privacy-preserving safety methods、agentic oversight、高深刻度misuse領域などが並ぶ。抽象的な理念よりも、既存または近い将来のsystemに関係するpractical researchを求めていることが伝わる。
External safety researchを制度化する一歩
OpenAIは、fellowsがmentorやcohortと密に連携し、BerkeleyのConstellation workspaceを利用できる一方で、remote参加も可能だと説明している。最終的な成果物としてはpaper、benchmark、datasetのようなsubstantial outputが期待されており、monthly stipend、compute support、ongoing mentorshipも用意される。ただしinternal system accessは付与されず、API creditsなどの形で研究を進める点も明記されている。
この発表の意義は一回限りのprogram以上にある。frontier labがsafetyへの投資を社内評価や原則表明だけに留めず、external communityにも構造化して広げようとしているからだ。talent pipelineの拡大という意味でも重要だが、より直接的にはoversightやmisuse preventionに関するpractical researchを会社の外で増やす仕組みになり得る。こうしたfunded external programが増えれば、AI safety capacityの形成方法そのものが変わっていく可能性がある。出典はX postとOpenAI公式発表である。
Related Articles
Anthropicは2026年3月31日、豪州政府とAI safety研究およびAustralia National AI Plan支援に関するMOUを締結したと発表した。Australia AI Safety Instituteとの協力、Economic Indexデータ共有、豪州研究機関とのAUD$3 million規模の提携が含まれるとしている。
Perplexityは2026年3月31日、leading-edge AI systemのsecurity、trustworthiness、practical defenseを研究するSecure Intelligence Instituteを立ち上げると発表した。Instituteページは、数百万ユーザーと数千enterpriseを支える運用経験を基盤に、PurdueのNinghui Li教授が率い、BrowseSafeやNIST関連のAI agent security論文を初期成果として示している。
OpenAIはMarch 25, 2026に、AI abuseとsafety riskを対象にした公開Safety Bug Bountyを開始した。従来のSecurity Bug Bountyでは扱いにくかったprompt injectionやdata exfiltration、agentic misuseを別枠で受け付けるのがポイントだ。
Comments (0)
No comments yet. Be the first to comment!