記事へのコメント35

    • 注目コメント
    • 新着コメント
    deejayroka
    deejayroka “phi-1の重要性は「モデルのサイズを大きくする代わりに質を向上させることで高い性能のモデルを得ることができる」という点にあります”

    2023/06/27 リンク

    その他
    adsty
    adsty GPT-3.5よりパラメータ数が少ないのに成績は上回った。

    2023/06/23 リンク

    その他
    gabill
    gabill “「Textbooks Are All You Need(必要なのは教科書だけ)」”

    2023/06/23 リンク

    その他
    nilab
    nilab 「LLaMaやFalconといった小型の大規模言語モデル(LLM)が矢継ぎ早にリリースされる中、Microsoft ResearchのAI研究チームが、プレプリントサーバーのarXivで、Transformerベースのモデル「phi-1」を発表しました」

    2023/06/23 リンク

    その他
    nicht-sein
    nicht-sein 学習素材の品質も大事ってことなんじゃろうな

    2023/06/23 リンク

    その他
    dec123456789
    dec123456789 この手のやつ、英語以外の言語は本当にダメダメ。

    2023/06/23 リンク

    その他
    LuckyBagMan
    LuckyBagMan 競馬予想AI「ルメール買っとけ」

    2023/06/23 リンク

    その他
    misshiki
    misshiki “Transformerベースのモデル「phi-1」を発表。このモデルは、パラメーター数がGPT-3.5の100分の1以下の13億しかないにもかかわらず、テスト用データセット・HumanEvalでGPT-3.5を上回る成績を収めたことが報告されています。”

    2023/06/23 リンク

    その他
    haruosaka
    haruosaka 3〜4年後には多くの人間がイヤフォン型のAI質問装置を取り付けていて曖昧な知識を補完するツールにしていると予想出来る。俺の場合だと競馬場でこの馬の阪神競馬場での成績は?とか聞くかな。サブスクなら払う。

    2023/06/23 リンク

    その他
    takeishi
    takeishi そのうちローカルでスマホや携帯翻訳機に載る日が来るな

    2023/06/23 リンク

    その他
    gfx
    gfx "このモデルはインターネットから収集された教科書品質のデータセット60億トークンと、GPT-3.5から生成された教科書データセット10億トークンを使い、8台のNVIDIA A100によるわずか4日間のトレーニングで作られたとのこと"

    2023/06/23 リンク

    その他
    kuumon
    kuumon “Orca”

    2023/06/23 リンク

    その他
    atsushieno
    atsushieno MS/MSRって(MSRだけじゃないけど)「論文に内容をきちんと把握できるまともなタイトルを付けさせる」教育が全くできていないよね。カンファレンスのセッションタイトルもIO/WWDCと比べてBuildだけアレだった。

    2023/06/23 リンク

    その他
    remix-cafe
    remix-cafe Microsoft Security CopilotなどにOpenAIのGPT-4入れたりした結果、大規模なトレーニングデータが手に入ったからそれだけでも儲けもんだよな。

    2023/06/23 リンク

    その他
    fog-og-frog2
    fog-og-frog2 直観だと、教科書通りの質問や回答しか理解できない過学習が起きてそうな感じはするけどね。ChatGPTの良さはスラングだったりラフすぎる質問だったりそういうところへの対応だと思うけど、これはどうなのかな

    2023/06/23 リンク

    その他
    hiroomi
    hiroomi ”、8台のNVIDIA A100によるわずか4日間のトレーニングで作られたとのこと。”

    2023/06/23 リンク

    その他
    toaruR
    toaruR 日本語で使うとどうなるんやろ(´-`)

    2023/06/23 リンク

    その他
    circled
    circled 「Open AI社はBingやAzureやWindowsへのChatGPT提供ライセンスフィーと引き換えに、Microsoftにノウハウを奪われていってない?」→ これは競争激しい業界だから遅かれ早かれ起こる話な気がするのよね。AI分野で一強は無理かと

    2023/06/23 リンク

    その他
    dh16t
    dh16t 13億や

    2023/06/23 リンク

    その他
    theatrical
    theatrical GitHub compilot のコスト下げられるしMicrosoft的には嬉しいだろうな。Microsoft researchは独立した研究機関で Microsoft本社の意向関係なく研究しているとよく聞くので、そこを意識したわけではないかもしれないけど

    2023/06/23 リンク

    その他
    prjpn
    prjpn これって真理かも

    2023/06/23 リンク

    その他
    Imamura
    Imamura シンギュラリティがまた一歩近づいた! いい先生に学ぶと成績が伸びるみたいな話は、マイクロソフトの莫大な研究リソースによってベンチャーのOpenAIが拓いたAI研究をぐんぐん加速させるのと似ている

    2023/06/23 リンク

    その他
    RySa
    RySa 特定の言語で特定分野の教科書や論文を学習させれば恐らくもっと良い結果が得られる。これが直近で手軽に広くGPTを適用する道かなと。その点で言うと今からでも様々な企業が開発に乗り出しても良いと思う。

    2023/06/23 リンク

    その他
    kuroyuli
    kuroyuli テストに使われたHumanEvalというデータセットが、訓練に使われた教科書データセットとの相性抜群だった可能性。(他のタスクでは大したことない??)

    2023/06/23 リンク

    その他
    augsUK
    augsUK 「GPT-3.5から生成された教科書データセット10億トークン」AlphaGoZeroが人間の棋譜不要にすぐになったように、生成元が優秀なAIならデータの質こそ人間の文書不要になりそう。

    2023/06/23 リンク

    その他
    kei_0000
    kei_0000 ここからどれだけ賢くできるかに期待。人は一番性能の良いツールを使いたがると思うので、GPT-4の67%超を目指して頂きたい。メモhttps://paperswithcode.com/dataset/humaneval

    2023/06/23 リンク

    その他
    punychan
    punychan 分かった。これから最も需要のある人間は、よいお手本データを生成できる人間だ。あと、AIは誰のどんなデータをお手本にしたかが宣伝材料になる。

    2023/06/23 リンク

    その他
    shields-pikes
    shields-pikes Open AI社はBingやAzureやWindowsへのChatGPT提供ライセンスフィーと引き換えに、Microsoftにノウハウを奪われていってない? 近い将来に喧嘩別れして、Open AI社の存在感が薄れて、結局IT巨人同士の戦いになったりするのかなー。

    2023/06/23 リンク

    その他
    grandao
    grandao もはや何がどれだけ凄いのか一般人にはサッパリ分からない。

    2023/06/23 リンク

    その他
    shunkeen
    shunkeen “教科書品質のデータセット60億トークンと、GPT-3.5から生成された教科書データセット10億トークンを使い、8台のNVIDIA A100によるわずか4日間のトレーニングで作られた”/AIの教科書を生成するAI。

    2023/06/23 リンク

    その他

    注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

    アプリのスクリーンショット
    いまの話題をアプリでチェック!
    • バナー広告なし
    • ミュート機能あり
    • ダークモード搭載
    アプリをダウンロード

    関連記事

    Microsoftがたった13億のパラメーターでGPT-3.5超えのHumanEval50.6%をたたき出す「phi-1」を発表

    LLaMaやFalconといった小型の大規模言語モデル(LLM)が矢継ぎ早にリリースされる中、Microsoft Research...

    ブックマークしたユーザー

    • ahat19842023/09/09 ahat1984
    • minamijoyo2023/07/28 minamijoyo
    • gyu-tang2023/06/29 gyu-tang
    • deejayroka2023/06/27 deejayroka
    • roogh5eeSha62023/06/26 roogh5eeSha6
    • kinaxjp2023/06/25 kinaxjp
    • wushi2023/06/25 wushi
    • machupicchubeta2023/06/25 machupicchubeta
    • mieki2562023/06/24 mieki256
    • adsty2023/06/23 adsty
    • manboubird2023/06/23 manboubird
    • gabill2023/06/23 gabill
    • NOkon2023/06/23 NOkon
    • ichan2023/06/23 ichan
    • ys00002023/06/23 ys0000
    • nilab2023/06/23 nilab
    • nicht-sein2023/06/23 nicht-sein
    • fujihiro02023/06/23 fujihiro0
    すべてのユーザーの
    詳細を表示します

    同じサイトの新着

    同じサイトの新着をもっと読む

    いま人気の記事

    いま人気の記事をもっと読む

    いま人気の記事 - テクノロジー

    いま人気の記事 - テクノロジーをもっと読む

    新着記事 - テクノロジー

    新着記事 - テクノロジーをもっと読む

    同時期にブックマークされた記事