「Googleドライブのエロ画像が消された」──そんなタイトルの投稿が「はてな匿名ダイアリー」で話題を呼んでいる。投稿に対し、ネット上では「何が削除対象になるのか分からない」「目視で人間が確認しているの?」といった不安の声が上がっている。 「人による確認はしていない」 投稿の内容は、クラウドストレージ「Googleドライブ」に性的な画像を保存していたところ、予告なく削除されたというもの。投稿者は「何が消されたかは分からない。ただ消したとだけ書かれたメールがGoogleから来た」「俺二次エロしか入れてなかったのに! 一般公開どころか誰かと共有すらしてなかったのに!」としている。 この投稿を受け、Twitter上でも「データを一時的に入れたときに削除された」「何を削除したかは教えてくれなかった」などの報告が出ている。 Googleはどんな方針に沿って削除を行っているのか。日本法人の広報担当者に
2022年8月に高精度な画像生成AI「Stable Diffusion」が公開された途端、一部のユーザーはポルノ画像の生成に利用する方法を探り始めました。Stable Diffusionを利用した高精度な18禁ポルノ画像の生成を目指すコミュニティ「Unstable Diffusion」について、テクノロジー系メディアのTechCrunchが報じています。 Meet Unstable Diffusion, the group trying to monetize AI porn generators | TechCrunch https://techcrunch.com/2022/11/17/meet-unstable-diffusion-the-group-trying-to-monetize-ai-porn-generators/ AI開発スタートアップのStability AIによって
Googleドライブのエロ画像が消された https://anond.hatelabo.jp/20191113003537 これを見てると勘違いしてる人が多いので解説する。 私はGoogle社員ではないがレンタルサーバー系の会社で働いており、監視の仕組みは似たようなものだと推測する。 基本的にはプログラムが決められたルールに則って判断して自動で凍結をしているだけで、人間が中身を目視しているわけではない。 判断基準の中で最も重視されているのは「すでにアウトな画像と同一か」である。 つまりネット上で拾ったアウト画像はほぼ100%アウトだと判断される。 Google画像検索で同一画像を探してくれる仕組みと同じだと考えればわかりやすいと思う。 逆に自撮りなど自分自身しか持っていないものはアウト判断されづらい。 ただし閾値があって、アウト画像との一致率が高い画像はアウト判断されやすい。 自撮りだとし
はてな匿名ダイアリーに投稿された、「Googleドライブのエロ画像が消された」というエントリがネットユーザーの間で話題になっています。ネット上ではGoogleの対応を巡り、「え、(ファイル内容を)見られてるの」「非公開でも消されるの流石にちょっと」などさまざまな声があがりましたが、Googleに問い合わせたところ「自動システムによるスキャンで乱用を示すシグナルを検出しており、人による確認はしていません」とのことでした。 Googleドライブ Googleドライブのエロ画像が消された 発端となったエントリは11月13日に投稿されたもの。タイトルの通り、Google ドライブに「エロ画像(二次元)」を保存しておいたところ、いきなりGoogleから「消した」というメールが届いたといいます。投稿者によれば、画像は一般公開も共有もしていなかったといい、あくまでプライベートなファイル置き場として利用し
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く