群青ちきん @miseromisero エッチな画像が欲しかったので、遺伝的アルゴリズムでエッチな画像を生成するシステムを開発しました。サイトでみなさんの好みを送り続けると、だんだんとエッチな画像が表示されるようになるはずです。 エッチな画像を作るために、よければRT等お願いします。 gamingchahan.com/ecchi 2021-01-10 19:24:01
おわり 二つの画像のうち、どっちの方がエッチかを選んでください。 世代交代を経るごとに、だんだんとエッチな画像が表示されるようになるはずです。 Choose the lewder one, and you can make them more lewd. You will win when the AdSense on this site is stopped by Google because of "Sexually explicit content". ENGLISH よりエッチな画像を作るために、 ぜひ色んな人に広めてください。 ツイート ・展覧会ページでこれまでの画像を公開しています。 詳しい説明 スポンサーリンク みんなの好みを学習させて、「遺伝的アルゴリズム」によってエッチな画像を自動で作るためのシステムです。 遺伝的アルゴリズムとは、あるデータを目標に近づけるために使われる
就活のインフラとも言える情報サイト「リクナビ」が、学生の閲覧履歴をもとに内定を辞退する確率を予測し、本人に十分説明しないまま企業に売っていた。運営するリクルートキャリアは、政府からの指摘を受けて販売をとめたが、学生からは怒りの声があがる。 リクナビは、年に80万人の就活生と3万超の企業が使う最大手。その閲覧履歴を使って2018年3月から始めたサービス「リクナビDMPフォロー」が問題になった。 仕組みはこうだ。 企業は、採用活動で向き合っている就活生の内定辞退を減らしたい。前年の辞退者の名簿を渡すと、リクナビは、その一人一人が、いつ、どの企業をどれほど閲覧していたか、人工知能(AI)で分析する。内定後も他の企業を閲覧していたか、といった具合だ。 実績を踏まえ、その年の就活生が辞退する確率を1人ごとに5段階で予測。こうした情報を1年あたり400万~500万円で大企業など38社に販売していた。対
個人用メモです。 機械学習は素材集めがとても大変です。 でもこの素材集め、実は無理してやらなくても、元から良質な無料データベースがあったようなのです。 URLはこちら YouTube8-M https://research.google.com/youtube8m/explore.html 提供されているサービスは以下の通り 800万個の動画 19億個のフレーム 4800個の分類 使い方はExploreから画像セットを探し、ダウンロードするだけ。 他の方法も見つけた open images dataset 「すごい神だな」と思ったのは これもう完成されてますよね もちろんこの認識前の画像もセットでダウンロードできます。 Youtube-8Mとは、画像数を取るか、精度で取るか、という違いでしょうか。 他にも良い素材集を教えていただきました (はてなブックマーク情報 @sek_165 さん )
.app 1 .dev 1 #11WeeksOfAndroid 13 #11WeeksOfAndroid Android TV 1 #Android11 3 #DevFest16 1 #DevFest17 1 #DevFest18 1 #DevFest19 1 #DevFest20 1 #DevFest21 1 #DevFest22 1 #hack4jp 3 11 weeks of Android 2 A MESSAGE FROM OUR CEO 1 A/B Testing 1 A4A 4 Accelerator 6 Accessibility 1 accuracy 1 Actions on Google 16 Activation Atlas 1 address validation API 1 Addy Osmani 1 ADK 2 AdMob 32 Ads 71 Ads API 11
この記事は「STORIA法律事務所」のブログに掲載された「進化する機械学習パラダイス ~改正著作権法が日本のAI開発をさらに加速する~」(2018年9月2日掲載)を、ITmedia NEWS編集部で一部編集し、転載したものです。 学習済みモデル生成のためには大量の生データや生データを基に生成した学習用データセットが必要となりますが、その際に著作物である生データ(文章、写真、静止画、動画など)を利用することも多くあります。 著作権法上、著作物は著作権者に無断で利用(ダウンロードや改変等)することは出来ませんが、実は日本の今の著作権法には47条の7という世界的に見ても希な条文があるため(詳細は後述)、AI(人工知能)開発目的であれば、一定限度で著作権者の許諾なく著作物を利用できます。 その点を捉えて、早稲田大学法学学術院の上野達弘教授は「日本は機械学習パラダイスだ」と表しています。言い得て妙で
ここでは、Python2.7.6 で行なっています。また、主に以下のパッケージを利用しています。 Keras (2.0.4) tensorflow (1.1.0) はじめに kerasでCNNにチャレンジしてみました。例題のデータセットだけだと面白くないので、自分で拾ってきた画像をCNNで分類しました。 ここではCNNの理論的な部分はある程度わかっている前提で、処理の部分に焦点を当てています。 分析環境は、AWSのEC2を利用。 なお、画像に関しては必要な部分の切り出しを行なった上で実行しています。 (私はOpenCVで行いました) 分析環境について TensorFlowをGPUで動くよう、環境を構築したかったのですが初心者には難しく… AWSですでに環境が構築されているAMI(Bitfusion Ubuntu 14 TensorFlow)があったので、こちらを利用しています。 必要なパッ
from icrawler.builtin import GoogleImageCrawler crawler = GoogleImageCrawler(storage={"root_dir": "images"}) crawler.crawl(keyword="猫", max_num=100) 2018-07-15 13:20:58,410 - INFO - icrawler.crawler - start crawling... 2018-07-15 13:20:58,411 - INFO - icrawler.crawler - starting 1 feeder threads... 2018-07-15 13:20:58,412 - INFO - feeder - thread feeder-001 exit 2018-07-15 13:20:58,412 - INFO - ic
2つのモデル記述方法 kerasでは、ネットワークの層(レイヤー)を記述する方法が2つあります。 Sequentialモデル ネットワークを1列に積み重ねていく、シンプルな方法です。 サンプルコード: from keras.models import Sequential from keras.layers import Dense, Activation # モデルの作成 model = Sequential() # モデルにレイヤーを積み上げていく model.add(Dense(units=64, input_dim=100)) model.add(Activation('relu')) model.add(Dense(units=10)) model.add(Activation('softmax')) # 訓練プロセスの定義 model.compile(loss='categor
はじめまして。 本業はアスキーアート (以下AA) 職人のOsciiArtといいます (本業ではない)。 AlphaGo対イ・セドルの対局を見て、「僕もディープラーニングで神AA職人を倒したい!」と思い、pythonをインストールしてちょうど一年の成果を書いていきます。 コードはこちらにアップしてあります。 https://github.com/OsciiArt/DeepAA ここで扱うアスキーアートとは ここで扱うAAとは、 こういうの……↓ ではなく、こういうの……↓ でもなく、こういうの……↓ ともちょっと違って、こういうの……↓ ではもちろんなく、こういうのです。↓ このような、線画を文字を作って再現した「トレースAA」と呼ばれるタイプのAAをここでは扱います。 詳細はwikipediaの「アスキーアート」のページの「プロポーショナルフォント」の項を参照してください。 wikipe
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く