タグ

AIに関するt2waveのブックマーク (193)

  • メタバースで会おう - FoundX Review - 起業家とスタートアップのためのノウハウ情報

    メタバースを育てるには世界が必要 共同制作者としてのAI 自発的な社会経験が新しい規範になる Social Strikes Back(日語訳)は、次世代のソーシャル・ネットワークと、それらがどのようにコンシューマー・テックの未来を形作るかを探るシリーズです。詳しくは a16z.com/social-strikes-back をご覧ください。 メタバースとは独自の経済とアイデンティティシステムを備えた、持続的で無限に拡大する仮想空間です。メタバースをどのように構築するかについては、多くの異なるビジョンがあります。Facebook Horizonは、それをVRで実現するという野心的な賭けです。Epic GamesはFortniteでゲーム中心のアプローチを倍増させています。しかし、メタバースの最もエキサイティングな部分は、その範囲やインフラではなく、友人や恋人との交流方法を再発明する可能性で

    メタバースで会おう - FoundX Review - 起業家とスタートアップのためのノウハウ情報
    t2wave
    t2wave 2020/12/15
    “膨大なコンテンツが必要なので2つの重要なトレンドの進展がキーになる。すなわち、ユーザーが作成したコンテンツ(UGC)の拡散と、作成ツールとコンパニオンの両方とでAIが進化すること”
  • “デザインを理解するAI”でフロントエンド開発の自動化へ、Webサイト制作の変革目指すスタートアップ

    大学在学中&休学中に複数のIT系スタートアップでのインターンやベンチャーキャピタルでのリサーチバイトを経験後、フリーランスとして独立。現在は「TechCrunch Japan」などでスタートアップ企業のプロダクトや資金調達を中心としたインタビュー・執筆活動を行っている。 From DIAMOND SIGNAL スタートアップやDX(デジタルトランスフォーメーション)を進める大企業など、テクノロジーを武器に新たな産業を生み出さんとする「挑戦者」。彼ら・彼女にフォーカスして情報を届ける媒体「DIAMOND SIGNAL」から、オススメの記事を転載します。※DIAMOND SIGNALは2024年1月をもって、ダイヤモンド・オンラインと統合いたしました。すべての記事は連載からお読みいただけます。 バックナンバー一覧 Tsunagu.AI が展開する「FRONT-END.AIフロントエンドエー

    “デザインを理解するAI”でフロントエンド開発の自動化へ、Webサイト制作の変革目指すスタートアップ
    t2wave
    t2wave 2020/12/06
    デザインカンプや素材を読み込んでhtmlに配置
  • サイバースペースを創造した作家とそれを現実にする男 ソニーコンピュータサイエンス研究所 | Stories | Sony

    ヒューマンオーグメンテーション(人間拡張)の第一人者であり、マルチタッチインターフェースやAR(拡張現実)などの革新技術を続々と世に送り出しているソニーコンピュータサイエンス研究所の暦純一。主人公がサイバースペースへ没入(jack in)するSF小説『ニューロマンサー』から多大な影響を受けた「JackIn」という研究を進めている彼が、同小説の作者であるウィリアム・ギブスン氏のもとを訪問。VR(仮想現実)という言葉さえ存在しなかった80年代にテクノロジーに詩情を見出し、技術の進化を予測するかのような独自の世界観を築き上げたSF界の巨匠と対談し、未来を先取りする発想論を展開する。

    サイバースペースを創造した作家とそれを現実にする男 ソニーコンピュータサイエンス研究所 | Stories | Sony
    t2wave
    t2wave 2020/11/28
    暦本教授がSF小説『ニューロマンサー』のウィリアム・ギブスン氏と対談した動画
  • The way we train AI is fundamentally flawed

    If AI is really going to make a difference to patients we need to know how it works when real humans get their hands on it, in real situations. Underspecification is a known issue in statistics, where observed effects can have many possible causes. D’Amour, who has a background in causal reasoning, wanted to know why his own machine-learning models often failed in practice. He wondered if underspe

    The way we train AI is fundamentally flawed
    t2wave
    t2wave 2020/11/25
    機械学習が現実世界で使い物にならない理由。データシフトより仕様不足が大きい。
  • なぜGoogle Meetの背景ぼかしが最強なのか(一般公開版)

    はじめに 最近ついに、Google Meet に背景ぼかし機能が利用可能になりましたよね。日語だとインプレスのケータイ Watchの記事などで紹介されてます。確か 2020 年 9 月末前後で順次リリースされていたと記憶しています。 このときは「背景ぼかし」の機能しかなかったのですが、最近(私が気づいたのは 2020/10/30)更にアップデートされました。アップデートで「背景差し替え」機能が付いて、ぼかし機能もぼかし効果が強弱 2 つから選べるようになりました。まだ日語のニュース記事は見てないですが、Googleによるアップデートの発表はちゃんとされています。 そして、Google AI Blog でBackground Features in Google Meet, Powered by Web MLという記事が公開され、実装についての解説がされました。 この記事はその解説記事を

    なぜGoogle Meetの背景ぼかしが最強なのか(一般公開版)
    t2wave
    t2wave 2020/11/02
  • Oculus創業者の軍事テック企業が開発中、「戦争用OS」が実現する世界

  • 【US版Google公式ブログ記事】テック専門家に聞く:機械学習モデルはどのように自らを説明するのか? | AI専門ニュースメディア AINOW

    HOME/ AINOW編集部 /【機械学習の解釈可能性】テック専門家に聞く:機械学習モデルはどのように自らを説明するのか?【Google公式ブログ】 US版Googleブログ記事のひとつ『テック専門家に聞く:機械学習モデルはどのように自らを説明するのか?』では、同ブログ編集部のスタッフのひとりであるAndrea Lewis Åkerman氏が、Googleに在籍している研究者Been Kim氏に機械学習について質問した時の回答をまとめています。質問のテーマは「機械学習の解釈可能性」についてです。 「医師」のような特定の職業名が男性に関連付けられて翻訳されるような現象は、「AIのバイアス」として知られています。こうしたバイアスを緩和・除去するうえで重要となるのが、機械学習モデルがバイアスを伴った判断を下した理由を理解可能なように説明する「解釈可能性」です。 Kim氏によると、解釈可能性を実現

    【US版Google公式ブログ記事】テック専門家に聞く:機械学習モデルはどのように自らを説明するのか? | AI専門ニュースメディア AINOW
    t2wave
    t2wave 2020/10/28
  • 「mmhmm」がSequoiaなどから約33億円の大型調達、何がすごいのか? | Coral Capital

    Evernoteの元CEO、フィル・リービン氏が2020年7月7日にベータ版として発表した「mmhmm」(ンーフー)が、わずか3か月後の10月8日に名門VCのSequoia Capitalをリードとして約33億円(3,100万ドル)のシリーズAの資金調達を発表しました。リービン氏は「ジョークのような感じで始まった」と言いますが、ベータローンチから3か月目にしては大型のシリーズA調達です(この投資ラウンドには三木谷浩史氏や中島聡氏ら日投資家・経営者、WiLやScrum Venturesなど日系VCも参加しています)。 何がすごいのでしょうか? mmhmmもそれ自体が非常に斬新で便利なアプリですが、私にはそこに大きな時代の変化の予兆があるように思えるのです。テレビの世界で1990年代から天気予報番組などで利用されてきた「クロマキー合成」という画像処理技術が一気に民主化し、多くのサービスやア

    「mmhmm」がSequoiaなどから約33億円の大型調達、何がすごいのか? | Coral Capital
    t2wave
    t2wave 2020/10/15
    天気予報士UIのアナロジー。1990年代から天気予報番組などで利用されてきた「クロマキー合成」という画像処理技術が一気に民主化
  • LINNÉ LENS(リンネレンズ)

    生きものの認識はスマートフォン上でリアルタイムに処理されるため、携帯電波の届かない水中でもご利用いただけます。シュノーケリングやダイビングでの水中観察にご活用ください。 ※ スマートフォンの防水と安全には十分ご注意の上、各自の責任でご利用ください。 驚きを体験しよう。 人気水族館・動物園の館長も絶賛。 サンシャイン水族館館長 丸山克志様 まず、かざすだけで一瞬で生物名が表示されることに大変驚きました。水槽での解説表示の制約を越えて、お客様が生きものについてより詳しく知ることができるのも素晴らしい。水族館や動物園オリジナルの解説表示も可能なので、園館ごとに異なる飼育員目線の生物情報の提供も可能ですね。 海遊館館長 西田清徳様 複数の生きものを同時に、高い精度で認識できることに驚きました。海遊館は大型水槽で自然環境を再現する生態展示・混合展示を行なっており、お客様の関心に合わせたタイムリーな種

    LINNÉ LENS(リンネレンズ)
    t2wave
    t2wave 2020/08/17
    "現状を知ることが世界を変えるきっかけとなり、 計測可能なものは改善できる。地球上のあらゆる動植物を瞬時に識別できるとAIと、世界を正しく理解するためのMobile ARの開発"
  • TensorFlow.jsノードをNode-REDで使ってみる - Qiita

    日立製作所OSSソリューションセンタの横井です。今回は、画像認識を行うNode-REDのTensorflow.jsノードの使い方をご紹介します。 Tensorflow.jsとNode-RED TensorFlow.jsとは、TensorFlowのJavaScript実装です。TensorFlow.jsを用いることで、ブラウザ上やサーバサイドのNode.jsで学習や推論処理をリアルタイムに実行できます。また、Node-REDは、主にIoT向けに開発されたピジュアルプログラミングツールです。InfoQの記事によると、2020年のトレンドとしてTensorlow.jsはEarly Majority、Node-REDはEarly Adoptersという流行っている/流行りつつあるOSSとして位置付けられています。 記事では、これらトレンドの2つのOSSを組み合わせて何ができるか見てみましょう。

    TensorFlow.jsノードをNode-REDで使ってみる - Qiita
    t2wave
    t2wave 2020/08/06
  • 【技術関連】流行りのAIについて|あにき

    こんばんわ あにき です。 自己流ですが、AIの学習を兼ねて学んだことを自分の言葉で説明する機会をここで。 教師データって?機械学習を学ぶ際に「教師データ」って用語よく出てきますが、 有り無しの差ってあまり一般に知られていないので自学を兼ねてここで纏めます。 主に機械学習のジャンルとしてはSupervised(教師あり学習)UnSupervised(教師なし学習)Reinforcement(強化学習)の3つの学習方法があります。 各学習の背後にある統計学はRegression(回帰)、Classification(分類)、Clustering(クラスタリング)、Bandit Algorithms(バンデットアルゴリズム)、Q-Learning(Q学習)が存在します。 統計の解を求める方法としては「決定木」「k平均法」「サポートベクタマシーン」等があり、それらを用途に合わせて選択します。 例

    【技術関連】流行りのAIについて|あにき
    t2wave
    t2wave 2020/08/05
    機械学習の基本的分類。学習方法と背後の統計学の種類により整理
  • GPT-3の衝撃 - ディープラーニングブログ

    この1週間はGPT-3のユースケースの広さに驚かされる毎日でした. シリコンバレーでは話題騒然ですが日ではほとんど話題になっていないので,勢いで書くことにしました. GPT-3OpenAIが開発した言語生成モデルです.名前の由来であるGenerative Pretrained Transformerの通り,自然言語処理で広く使われるTransformerモデルを言語生成タスクで事前学習しています. 先月申請すれば誰でもGPT-3を利用できるOpenAI APIが発表され,様々な業種の開発者によって驚くべきデモンストレーションがいくつも公開されています. 特に話し言葉からJSXやReactのコードを生成するデモは著名なベンチャーキャピタルから注目を集め,誇大広告気味だと警鐘を鳴らす事態に発展しています. This is mind blowing. With GPT-3, I built

    GPT-3の衝撃 - ディープラーニングブログ
  • Speech-to-Text Webcam Overlay

    *認識結果が確定したタイミングで反映されます。テキストの編集・コピーも可能です。 **認識中にEnterキーを押すと,認識を止めて文を区切ることができます。日語の場合は文末に句点が付与されます。 よくある質問・ソースコード: GitHub 音声認識は Web Speech API を利用しています。 カメラやマイクが機能しないとき → ページの再読み込みや,ブラウザの設定を確認してください: Chrome ヘルプ 「ログをダウンロード」でダウンロードされるファイルは,アクセスしているユーザーのブラウザで生成されています。

    Speech-to-Text Webcam Overlay
    t2wave
    t2wave 2020/06/06
    chrome拡張のxDiversity。音声認識からウェブカメラへ字幕合成。翻訳も。
  • “I’m Feeling Lucky” — Building Great Search Experiences for Today’s Users

    t2wave
    t2wave 2020/05/14
    現代の「検索」に求められる要件。リッチな文脈反映、種々のフォーマットの横断、大容量メタデータ、人間のキュレートを含める、など。
  • LUDENS

    LUDENSは、人型AIプラットフォーム。 中枢となる「LudensCore」、視覚となる「VisualCortex」、言語能力となる「LanguageCortex」、そしてインターフェースとなる「VHA」から構成されます。

    LUDENS
    t2wave
    t2wave 2020/05/12
    バーチャルアシスタント
  • Googleマップ ストリートビューでランニングできるウェブアプリを作った

    ノートPCやタブレットとかについてるウェブカメラを使って、Googleマップ ストリートビューでランニングできるRunning on StreetViewというウェブアプリを作りました。 Google Maps Street Viewとウェブカメラを使って、ストリートビューを走るウェブアプリを書きました。 走るとストリートビューが進む感じ(雑な判定なので走らなくてもいい)https://t.co/bhYq289QmS 使い方はこちらhttps://t.co/kypr9Oo9JU Google MapAPIキーは自分で取得する必要があります。 pic.twitter.com/tmD1XNwjSa — azu (@azu_re) May 8, 2020 動画はデバッグ用のモデルに走ってもらっていますが、ウェブカメラで走るなどのアクションに応じてストリートビューを進行できるアプリです。 色々検

    Googleマップ ストリートビューでランニングできるウェブアプリを作った
    t2wave
    t2wave 2020/05/10
    ウェブカメラの映像を取得して、一定回数分の描画から差分の中央値を取得して、その差分が一定値を超えたら動いているという判定にしています。 描画差分の判定はpixelmatchを使ってpixelの差分を見ています
  • PIFuの使い方

    1枚の人物写真から3Dモデル化するPIFu 使ってみたい、と思ったもののPythonわからず苦戦。 この記事はそんなPython初心者な私が使えるようになるまでの全行程の備忘録。 (Git BashのインストールやPython環境構築も含む) PiFuのGitHubに記載されている手順をより詳しく追ったものです。 追記 PIFuHD より高解像度なモデルが生成出来るPIFuHDがリリースされています。 こちらの使用方法についてはRehabC様のこちらの動画が分かりやすかったです。 Miniconda インストール 公式サイトはこちら。 そもそもMinicondaとは? Anacondaとは ・Python体 ・よく使うパッケージ詰め合わせセット ・パッケージ管理ツール ・複数環境管理・切り替えツール の複合みたいなもの。 Minicondaはこのうちパッケージ詰め合わせセットを除いたもの

    PIFuの使い方
    t2wave
    t2wave 2020/05/05
    PiFUのセットアップ方法
  • PIFu

    Our approach can digitize intricate variations in clothing, such as wrinkled skirts, high-heels, and complex hairstyles. Shape and textures can be fully recovered in largely unseen regions such as the back of the subject. Our method can also be extended to multi-view input images. We introduce Pixel-aligned Implicit Function (PIFu), a highly effective implicit representation that locally aligns pi

    PIFu
    t2wave
    t2wave 2020/05/05
    写真から3Dモデル作る
  • Cyril Diagne on Twitter: "4/10 - Cut & paste your surroundings to Photoshop Code: https://t.co/cVddH3u3ik Book: @HOLOmagazine Garment: SS17… https://t.co/sdq9YzAVs8"

    4/10 - Cut & paste your surroundings to Photoshop Code: https://t.co/cVddH3u3ik Book: @HOLOmagazine Garment: SS17… https://t.co/sdq9YzAVs8

    Cyril Diagne on Twitter: "4/10 - Cut & paste your surroundings to Photoshop Code: https://t.co/cVddH3u3ik Book: @HOLOmagazine Garment: SS17… https://t.co/sdq9YzAVs8"
    t2wave
    t2wave 2020/05/04
    AR Cut & Paste。現実世界のオブジェクトPhotoshopに持ち込む。スレッドにテクニカルインサイト。react nativeとTFliteなど
  • GitHub - daiiz/mc-nuggets-classifier

    You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

    GitHub - daiiz/mc-nuggets-classifier
    t2wave
    t2wave 2020/05/02
    マックナゲットを分類。Cloud AutoML Vision/TensorFlow.js /OpenCV.js/HSVで範囲を指定して色抽出、二値化、輪郭抽出/教師データのラベリングツール ブラウザからカメラを扱う