記事へのコメント4

    • 注目コメント
    • 新着コメント
    i-komo
    i-komo パン買ってこい。 さて何パンを買ってくるだろうか?

    2023/03/10 リンク

    その他
    shunkeen
    shunkeen ちょっと、言葉を失うくらいすごいな。映像を入力、言語モデルを処理機構、ロボットの肉体を出力として組み合わせただけで、ここまでの高度な判断と、現実の物体を操作することができるのか。

    2023/03/10 リンク

    その他
    sotonohitokun
    sotonohitokun 「気が利くやつ」をコンピューティングで作れるようになると、人類の半分位は負けちゃうよ。視覚と文章で指示しても間違えてばかりの人も居るし。

    2023/03/10 リンク

    その他
    gabill
    gabill これの凄いところは何ができるではなくて、何から学べるかだと思う。人間が生み出したまともな文章の数なんてたかが知れているし、急に10倍になったりしない。でも視覚情報から学ぶことができれば無限に学べる。

    2023/03/10 リンク

    その他

    注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

    アプリのスクリーンショット
    いまの話題をアプリでチェック!
    • バナー広告なし
    • ミュート機能あり
    • ダークモード搭載
    アプリをダウンロード

    関連記事

    Googleが視覚とテキストから人間のように理解するロボット向け言語モデル「PaLM-E」を発表、「お菓子を持ってこい」などの複雑な命令も遂行可能

    対話型AIChatGPT」などに使われる言語モデルは複雑なタスクを実行することが実証されていますが、これ...

    ブックマークしたユーザー

    • i-komo2023/03/10 i-komo
    • sakito09022023/03/10 sakito0902
    • hz55992023/03/10 hz5599
    • shunkeen2023/03/10 shunkeen
    • advblog2023/03/10 advblog
    • koko_02023/03/10 koko_0
    • piet2952023/03/10 piet295
    • kattsuk22023/03/10 kattsuk2
    • yyuuzzuu2023/03/10 yyuuzzuu
    • tsuchidatomoka2023/03/10 tsuchidatomoka
    • fashi2023/03/10 fashi
    • sotonohitokun2023/03/10 sotonohitokun
    • gabill2023/03/10 gabill
    • notio2023/03/10 notio
    • feilong2023/03/09 feilong
    • tasukuchan2023/03/09 tasukuchan
    • andsoatlast2023/03/09 andsoatlast
    すべてのユーザーの
    詳細を表示します

    同じサイトの新着

    同じサイトの新着をもっと読む

    いま人気の記事

    いま人気の記事をもっと読む

    いま人気の記事 - テクノロジー

    いま人気の記事 - テクノロジーをもっと読む

    新着記事 - テクノロジー

    新着記事 - テクノロジーをもっと読む

    同時期にブックマークされた記事