Googleは米国時間9月3日、インターネット上の子供の性的虐待画像を特定する企業や組織を支援することを目的とした、無料の人工知能(AI)ツールをリリースした。 Googleの「Content Safety API」は開発者向けツールキットで、ディープニューラルネットワークを活用し、画像を目にしなければならない人の数を少なくする形で、審査能力を拡大させる。これにより、検出される子供虐待コンテンツは700%増加すると、Googleは述べた。 「新規画像を迅速に特定できれば、性的虐待を現在受けている子供を特定し、それ以上虐待されないように保護できる確率は格段に高くなる」と、エンジニアリング責任者のNikola Todorovic氏と製品マネージャーのAbhi Chaudhuri氏は、3日付けの同社ブログ記事に記した。「NGOや業界パートナーを対象に、Content Safety APIを介して