エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
画像生成AI“児童ポルノ”学習問題、日本では表現規制の議論にも (1/4)
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
画像生成AI“児童ポルノ”学習問題、日本では表現規制の議論にも (1/4)
2023年12月、スタンフォード大学の研究グループは、画像生成AI「Stable Diffusion」が学習のために使っ... 2023年12月、スタンフォード大学の研究グループは、画像生成AI「Stable Diffusion」が学習のために使ったオープンデータセット「LAION-5B」の中に、1008件の「CSAM(児童性的虐待画像)」(日本では児童ポルノと訳されることが多い)が含まれていると発表し、大きなニュースとなりました。日本ではその違法性を問うことができるのでしょうか? 問題のある画像を含んだデータの排除した学習済みデータへの移行が進む一方で、日本では生成AIの問題をきっかけに表現規制にまで広げようという動きも出ているようです。 「Stable Diffusion v1.5」学習データに“児童ポルノ”? LAION-5Bはドイツの非営利団体LAIONが公開している、インターネット上から機械的に収集された画像に対し、その画像が何を意味しているのかを分析したテキストのペア(「Clip」と呼ばれる)によって構