AIの発展に伴って、AIの悪用事例が次々と報告されています。新たにAIを用いて偽の本人確認書類を生成する有償サービスが存在していることが海外メディアの404 Mediaによって報じられました。 Inside the Underground Site Where ‘Neural Networks’ Churn Out Fake IDs https://www.404media.co/inside-the-underground-site-where-ai-neural-networks-churns-out-fake-ids-onlyfake/ 偽造本人確認書類作成サービスは「Onlyfake」という名称で、特別な手段を使わずともアクセスできるオープンなインターネット上でサービスを展開しています。Onlyfakeのトップページが以下。「すべてのデータを生成可能」「1200DPIの高品質なテン
花笠監督の「私立GPT北高校」でグランシュライデ2週目キャラ演じてみたんだけど、面白すぎるw いかん、これはハマるw https://t.co/jNaQSFjJoZ pic.twitter.com/dGsmjfYCdr — らけしで (@lakeside529) November 10, 2023 実際に100人ぐらいの人が現時点でプレイしてくれてますね。 ありがたいですね。 GPTsの実際の作り方まずGPT Builderを立ち上げましょう。よくわからん場所にあります。 PCで立ち上げて左上を見ましょう。 Exploreってあるよね。そこ。 そこを押すと、よくわかんないリストの一番上に「+」マークが出るじゃない。それを押すのです。 そうするとこういう画面に来ますわね。 ここで画面左側、Createのタブで普段通りつくりたいGPTをテキストで打っていってもいいんですが。。。これって結局ここ
2022年〜2023年にかけて起こった、画像生成AIやChatGPTを始めとする大規模言語モデルの日常化は、私たちのライフスタイルをどう変えていくのでしょうか? AIの研究者でプログラマーの清水亮氏は、「生成AI」のような可能性を考えはじめたのは、生成AIブームのはるか前の約10年前からだと言います。 今のAIの最前線が興味深いのは、最先端の成果が「企業」から生まれるのではなく、AIで遊ぶ「趣味人(ホビイスト)」たちから、驚くような実例が出ていることだとも。 AI研究者が見ている現在のAIブームと、最前線の風景を聞きます。 ※この記事は西田宗千佳氏の新書『生成AIの革新 新しい知といかに向き合うか』(9月11日発売)の発売に合わせ、筆者西田氏とAI研究者の清水亮氏の対談としてお届けします。 西田 今の世の中での生成AIブームを、どう捉えていますか? 清水 今のブームはとても表層的なものなの
先日、ふとしたきっかけでしましま先生*1がこちらの論文について触れられているのを見かけたのでした。 これは推薦システム分野におけるNN研究の再現性について検証した2019年の論文で、近年のトップ会議*2に採択されたNN手法18個に対して再現を試みたところ、「reasonableな」努力で再現できたのはわずかに7個に過ぎず、その中でも1個は論文中で主張されたベースラインを超えることは出来なかったと報告しています。 ただ、この報告はNN研究における再現性に関する議論のあくまでも一例であり、実際コロナ禍以前から「論文中ではSOTAを達成と書いているのに同じ実装をどう組んでもSOTAに達しない」みたいな業界噂話はそこかしこで耳にしたものでした。しかしながら、実際のソフトウェアやアプリケーションとしてそれらのNN手法が用いられて、尚且つその結果として何かしらの不具合でも起きない限りは、機械学習業界の
本記事は、当社オウンドメディア「Doors」に移転しました。 約5秒後に自動的にリダイレクトします。 このたびブレインパッドは、LLM/Generative AIに関する研究プロジェクトを立ち上げ、この「Platinum Data Blog」を通じてLLM/Generative AIに関するさまざまな情報を発信をしています。今回は、効率的にLLMのような事前学習済みモデルを再学習する手法(PEFT)についてご紹介します。 問題意識 ビジネスで利用する際に乗り越えるべき壁 PEFTとは何か? PEFTのコンセプト分類 トークン追加型 Prefix Tuning P Tuning Prompt Tuning Adapter型 Adapter LoRA型 LoRA Ada LoRA まとめ 参考文献 こんにちは、アナリティクスサービス部の辻です。 今回は、LLMを効率的に再学習する手法として今後
画像生成AIでグラビアアイドルを作りたい。 でも実在する人と同じ顔が出たら困る。 そんなあなたに獣頭人身というソリューション。 AIでグラビアアイドルを作ったら 最近、画像生成AIでグラビアアイドルを作るのにハマっている。こういうやつだ。 カエル イカ サメ カマキリ Twitterで貼っていたらこれがバズる。 多少はウケるかなとは思っていたが、想像以上のバズりで驚いている。ネタとしては全く新しいものでもないし、色々と詰めの甘い部分も多い。それでも多くの人が興味を持ち、さらに画像生成AIネタなのに批判も少なかった。 だが、ツッコミが皆無というわけではない。その中にはもっともな内容もあるが、そもそも「目的が違う」と言いたいものもある。これはある意味で仕方ない。今回はTwitterでのバズなので、文脈が切り離された単体のツイートが広まっていくのだから。 なのでブログでまとめることにした。 そも
最近、「AIを理解したくて代数幾何の教科書を勉強しているんですよ」という人によく会う。 五年前くらい前に、note株式会社の加藤社長も「社内で代数幾何学の勉強会を開いてるんですよ」と言っていた。僕はその都度「それは全く遠回りどころか明後日の方向に向かってますよ」と言うのだがなかなか聞き入れてもらえない。 確かに、AI、特にディープラーニングに出てくる用語には、ベクトルやテンソルなど、代数幾何学で使う言葉が多い。が、敢えて言おう。 代数幾何学とAIはほとんど全く全然何も関係していないと。 なぜこのような不幸な誤解が生まれてしまうかの説明は後回しにして、意地悪をしても仕方ないので、AIを理解するために最低限知っておかなければならない用語を5つだけ紹介する。 テンソル(スカラー、ベクトル、行列など)おそらく、「テンソル」という言葉が人々を全ての混乱に向かわせている。 Wikipediaの説明は忘
https://forest.f2ff.jp/introduction/7866?project_id=20230601
GPTのモデル構造を目で見てみたい! そんな気持ち、わかるでしょ? 技研フリマをやりながら、どうにかこうにか出力したよ ご覧あれ やり方メモ from transformers import AutoTokenizer, AutoModelForCausalLM from torchviz import make_dot tokenizer = AutoTokenizer.from_pretrained("gpt2") from transformers import pipeline, set_seed generator = pipeline('text-generation', model='gpt2') m= generator.model x= m.generate() y= m.forward(x) image = make_dot(y.logits, params=dict(
【文春オンライン「ChatGPTには逆立ちしてもできないことがある」平井鳥取県知事が誤解覚悟で「使用禁止」を訴えた真意】の記事を読んで ■5/22追記 投稿したのは数日前なのに、なんだこれ? ちょっと怖い。 ■はじめに 日曜日、chatGPT-4(以下「GPT」)のプロンプトや拡張機能を色々と試していました。また、GoogleのBardも使えるようになっていたので、素人なりに試行錯誤していました。 朝から何時間も試行して疲れたので、ちょっと気分転換にTwitterの”おすすめ”に流れてくるツイートを漫然と見ていました。 すると、見出しの記事が流れてきました。別に私は鳥取県知事に対して好意も悪意もない・・・というか、あの時おすすめツイートが流れてこなければ、他組織の首長のインタビューを読むことは恐らくなかったでしょう。北海道知事や沖縄県知事が何をしようと関心ないし、それと同じ程度に関心ないも
グーグルは、5月10日にカリフォルニア州マウンテンビューで開催された年次開発者会議で、Gmailの文章の作成支援ツールや「イマーシブビュー」と呼ばれる没入型のGoogleマップのルート案内機能などを発表した。しかし、その中にはテック業界以外ではあまり注目されなかった画期的機能が含まれていた。 グーグルは、人工知能(AI)を用いて検索結果を提示する方法を変えようとしている。そして、この機能は、起こりうる結果を誇張していうなら、すでに生き残りに苦戦しているオンラインパブリッシャーたちに核爆弾を投下するものになりそうだ。 グーグルは10日のイベントで、検索エンジンの検索結果に生成AI(ジェネレーティブAI)を導入した機能を実演した(この機能は、まだ一般には展開されていない)。同社は「3歳以下の子どもと犬のいる家族が旅行に行く場合、米国のブライスキャニオン国立公園とアーチズ国立公園のどちらが良い選
1.GoogleはAI開発競争における防壁を持っていません!OpenAIもです!まとめ ・Google社内から流出したとされる文章がGoogleはOpen Sourceの取り組みからもっと学ぶべきという趣旨を主張していた ・Googleが巨費をかけた大規模モデルで苦戦していることを100ドルと130億パラメータと数週間で実現しているとの事 ・イラスト生成AIで起こったカスタマイズしたモデルの流行は大規模言語モデル界隈でも起こっていく可能性はあるかもしれない 2.AI開発競争における競争優位性とは? 以下、www.semianalysis.comより「Google “We Have No Moat, And Neither Does OpenAI”」の意訳です。私はhardmaruさんのTwitterで知りましたが、Google社内文章の流出とされています。一部報道によれば執筆者の方も既に特
コンサルティング会社SemiAnalysisが手に入れたGoogleの社内文書が波紋を広げている。文書は、GoogleとOpenAI/Microsoftの双方が、AI開発競争において、オープンソース陣営の「ゲリラ兵」に圧倒される可能性を示唆している。 社内文書の内容は、大規模言語モデル(LLM)の製品化はすでに驚異的なレベルまで民主化されていることを意味している。LLMが大手企業しか参加できないハイステークゲームだという前提はすでに過去のもののようだ。 この転覆を生んだのは、Metaが2月に発表したオープンソースのLLMであるLLaMAである。LLaMAは部分的にオープンソースで開発されているものの、非営利の研究目的でのみ利用可能で、重み付けのデータは一般公開されていない。 LLaMAを用いれば、研究者は微調整という軽いコストを負担するだけで、参入することができる。「トレーニングや実験への
2017年の画期的な研究論文「Attention Is All You Need」で、Google は、テキストや画像データ間の連続した関係や深い意味を強力なニューラルネットワークで学習する、つまり AI をより本物の「人」に近づける言語モデル「Transformer」を紹介した。 Image credit: Google 2017年、Google は画期的な論文「Attention Is All You Need」を発表し、今日の AI トレンドの基礎を築いた。 Transformer の最も重要なブレークスルーは、言語モデルの運用フローとは別に、多くの処理作業を同時に行うことでコンピューティングパワーを利用できるようにする「並列化」だ。スタンフォード大学の研究者は2021年の論文で、「AI 分野のパラダイムシフトを促すだけでなく、AI で何が可能かという想像力を広げる」と、Transf
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く