エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
AI学習への盗用を防止、AIに〝毒〟を食わせられる「Nightshade」が利用可能に - BRIDGE(ブリッジ)テクノロジー&スタートアップ情報
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
AI学習への盗用を防止、AIに〝毒〟を食わせられる「Nightshade」が利用可能に - BRIDGE(ブリッジ)テクノロジー&スタートアップ情報
Image credit: Pickpik 発表から数ヵ月経ち、アーティストが自分の作品を学習しようとする AI モデルに... Image credit: Pickpik 発表から数ヵ月経ち、アーティストが自分の作品を学習しようとする AI モデルに「毒」を盛ることができる新しいフリーソフトウェア・ツール「Nightshade」がついに利用可能になった。 シカゴ大学 教授 Ben Zhao 氏率いる「Glaze Project」のコンピュータ科学者たちによって開発されたこのツールは、基本的に AI で AI に対抗することで機能する。このツールは、人気のあるオープンソースの機械学習フレームワーク PyTorch を利用して、指定された画像に何が写っているかを識別し、画像をピクセルレベルで微妙に変更するタグを適用する。 今日がその日です。Nightshade v1.0の準備が整いました。パフォーマンス・チューニングも終わり、UIの修正も終わりました。 Nightshade v1.0は nightshare.cs.uc