Google、anti-scam industry accord に署名し AI 기반 fraud defense 計画を拡大
Original: Google has signed the Industry Accord Against Online Scams and Fraud. View original →
scam対策が個別platformの機能から共同防衛へ広がる
Googleは2026年3月16日、Viennaで開かれたUN Global Fraud Summitにおいて、Industry Accord Against Online Scams & Fraudへ署名したと明らかにした。公式発表によると、GoogleはAdobe、Amazon、Levi Strauss & Co、LinkedIn、Match Group、Meta、Microsoft、OpenAI、Pinterest、Targetなどとともに、threat intelligenceを共有し、online fraudに対する防御を連携して強化する枠組みに参加する。
重要なのは、Googleがscamを単なる個別サービスのmoderation問題として扱っていない点だ。発表では、現在のonline scamsはlocalな問題ではなく、financial harmとemotional harmを広く生むsophisticatedでglobalな criminal networksの活動だと位置づけている。そのため、各社が別々にsignalを抱えるより、defensive practicesやoperational responseをより速く横断的に共有することが必要だという考え方が示されている。
Googleはこのaccordを自社のAIとpolicy agendaにも結びつけた。Google.orgがすでに提供してきた$15 millionのfundingを土台に、expertiseとtechnical capabilitiesの提供範囲を広げ、その中にAI-driven solutionsによる scam detectionとneutralizationも含めると説明している。さらに2026年にはGlobal Signal Exchangeを通じた情報共有、law enforcementとの協力強化、data sharingやprivate-sector referrals、public policy frameworksに関するガイド公開も進めるとしている。
AIとtrust-and-safetyの観点で見ると、この発表はかなり実務寄りのシグナルだ。fraud operationsはautomation、platform scale、fragmented enforcementを前提に進化しているため、AI-based detectionだけでは足りない。必要なのは、standards、cross-border information sharing、そしてprivate platformとpublic enforcementをつなぐ operational playbooksである。Googleの発表は、anti-fraudが isolated product features ではなく、shared infrastructure に近づきつつあることを示している。
Primary source: Google.
Related Articles
Googleは、AIによってvulnerability discoveryと攻撃自動化の両方が加速するなか、open source maintainer支援を強化する新施策を公表した。発表はAlpha-Omega経由の共同$12.5 million pledgeと、Big Sleep、CodeMender、Sec-GeminiのようなAI defender toolsを同じ文脈で打ち出している。
Anthropicは The Anthropic Institute を立ち上げ、powerful AI が雇用、法制度、governance に与える影響を扱う専任組織を整えた。Jack Clark の下で Frontier Red Team、Societal Impacts、Economic Research を束ね、Washington, DC の policy 拠点も拡大する。
Anthropicは2026年3月5日、Department of Warから供給網リスク指定の通知を受けたと発表した。対象範囲は限定的だと説明しつつ、法的争訟と移行支援を並行する方針を示している。
Comments (0)
No comments yet. Be the first to comment!