並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 5487件

新着順 人気順

言語の検索結果1 - 40 件 / 5487件

  • 言語化の構造化|猪瀬竜馬 | Ryoma Inose

    言語化・構造化は良く必要なスキルと語られているにも関わらず、あまりやり方について言及されていることがないので、これを機会に言語化を構造化してみました。 5000文字の長文ですが、言語化に関して苦労している、営業だから言語化大事だけどノリで売ってきちゃってる、など、他にも言語化に興味があると言う方がいれば、是非ご覧いただけると幸いです。 普段はセールスイネーブルメントに関して言語化するようにしていますが、営業にも深く関わる話になります。 言語化とは? まず、言語化とは?をChatGPTに聞くと下記のような回答が返ってきます。 「言語化」とは、思考や感情、観察、アイデアなどを言葉にするプロセスを指します。これには、抽象的な概念や内面的な経験を言葉によって具体的かつ伝達可能な形に表現することが含まれます。言語化はコミュニケーションにおいて非常に重要で、他者との理解や共感を促進するために用いられま

      言語化の構造化|猪瀬竜馬 | Ryoma Inose
    • 「親子の二人三脚」である、中学受験で転ばないための気づきを、言語化してみた。

      長女と次女がそろって小学校を卒業して、一ヶ月ばかり経ちました。 しんざき家は5人家族でして、長男が高校二年生、長女と次女が中学生の双子というパーティ編成になっています。 つい先日長男が生まれた記事を書いたような覚えがあるんですが、本当時間が経つのが早すぎてびっくりしますよね。この調子だと来週くらいには22世紀になってるんじゃないでしょうか。 長女次女も、それぞれ中学受験を経験しました。鉄道研究部に入りたくて中学受験を目指した長男と同様、それぞれの理由があって「この学校がいい!」と主張した為受験に突入したわけですが、幸い二人とも行きたい学校に合格というめでたい結果に終わりまして、さすがにちょっとほっとしています。 中学生活も順調に滑り出しているようで、「今日は友達とどんな話をした」「今日はどんな部活を見学した」といったことを盛んに報告してくれています。楽しい3年間を過ごせればなによりだと思い

        「親子の二人三脚」である、中学受験で転ばないための気づきを、言語化してみた。
      • Googleがオープンソースのビジュアル言語モデル「PaliGemma」を公開&Llama 3と同等性能の大規模言語モデル「Gemma 2」を発表

        Googleが2024年5月15日にビジュアル言語モデル(VLM)の「PaliGemma」と、大規模言語モデル(LLM)の「Gemma 2」を発表しました。PaliGemmaはすでにリリースされており、簡単に試せるデモも公開されています。 Introducing PaliGemma, Gemma 2, and an Upgraded Responsible AI Toolkit - Google Developers Blog https://developers.googleblog.com/en/gemma-family-and-toolkit-expansion-io-2024/ PaliGemma – Google's Cutting-Edge Open Vision Language Model https://huggingface.co/blog/paligemma ◆ビジュ

          Googleがオープンソースのビジュアル言語モデル「PaliGemma」を公開&Llama 3と同等性能の大規模言語モデル「Gemma 2」を発表
        • スタンフォード大学の研究グループがGPUを高速に動作させるAI用のドメイン固有言語「ThunderKittens」をリリース

          スタンフォード大学のクリストファー・レ教授率いる研究チームがGPUを最大限に活用して一定時間当たりの演算量を最大化するためのドメイン固有言語(DSL)「ThunderKittens」をリリースしました。 ThunderKittens: A Simple Embedded DSL for AI kernels · Hazy Research https://hazyresearch.stanford.edu/blog/2024-05-12-quick-tk GPUs Go Brrr · Hazy Research https://hazyresearch.stanford.edu/blog/2024-05-12-tk 研究チームはNVIDIA H100を使用し、GPU使用率の最大化に取り組みました。H100はTensorコアを使用する半精度行列乗算計算の性能が989TFLOPSであり、その他

            スタンフォード大学の研究グループがGPUを高速に動作させるAI用のドメイン固有言語「ThunderKittens」をリリース
          • 「BASIC」誕生60周年--コンピューター利用を容易にしたシンプルな言語の歴史

            Steven J. Vaughan-Nichols (Special to ZDNET.com) 翻訳校正: 川村インターナショナル 2024-05-15 07:30 「Python」や「JavaScript」が学ばれるようになるずっと前、米国時間1964年5月1日の夜明け前の暗闇の中で、コンピューター史におけるささやかながら非常に重要な出来事がダートマス大学で幕を開けた。数学者のJohn G. Kemeny氏とThomas E. Kurtz氏がGeneral Electricの「GE-225」メインフレームを操作して、独自に考案した言語の最初のプログラムを実行した。その言語こそ、初心者向け汎用記号命令コード、すなわち「BASIC」だ。 BASICは最初に普及した言語ではない。その栄誉を得たのは、ビジネス分野では「COBOL」、エンジニアリング分野では「FORTRAN」だった。しかし、19

              「BASIC」誕生60周年--コンピューター利用を容易にしたシンプルな言語の歴史
            • 米Google、大規模言語モデル「Gemini 1.5 Flash」発表 1.5 Proの軽量版 きょうから利用可能

              米Googleは5月14日(現地時間)、大規模言語モデル(LLM)「Gemini 1.5 Flash」を発表した。「Gemini 1.5 Pro」を改良した軽量モデルで、低レイテンシとコストが最も重要なタスク向けに調整されているという。同日からGoogleが提供する開発者向け環境I「Google AI Studio」と「Vertex AI」で最大100万トークンを利用できる。 関連記事 米Google、動画生成AI「Veo」発表 テキストから60秒超え動画を作成 サンプルも多数公開 米Googleは、動画生成AI「Veo」を発表した。 Google、オープンな生成AIモデル「Gemma」公開 商用利用OK、Geminiと同じ技術の軽量LLM 米Googleは、大規模言語モデル(LLM)「Gemma」を公開した。同社が開発するLLM「Gemini」に使ったのと同じ技術を活用して開発した軽量版

                米Google、大規模言語モデル「Gemini 1.5 Flash」発表 1.5 Proの軽量版 きょうから利用可能
              • 米Google、オープンな視覚言語モデル「PaliGemma」公開 「Gemma 2」の登場も予告

                米Googleは5月14日、視覚言語モデル(VLM)「PaliGemma」を公開した。VLMとは視覚的な入力に言語を対応させる言語モデルのことで、画像や動画を入力すると自然言語を出力できる。同社はこれを「オープンなVLM」と位置付けており、Hugging FaceやGitHubなど複数のプラットフォームで公開している。

                  米Google、オープンな視覚言語モデル「PaliGemma」公開 「Gemma 2」の登場も予告
                • 大規模言語モデル (LLM)における低精度数値表現

                  2024年5月8日のHPC研究会で使用したスライドです。 https://www.ipsj.or.jp/kenkyukai/event/hpc194.html

                    大規模言語モデル (LLM)における低精度数値表現
                  • OpenAI、大規模言語モデル「GPT-4o」発表

                      OpenAI、大規模言語モデル「GPT-4o」発表
                    • GitHub Copilot ChatがGitHub Mobileでも正式に利用可能に。どこでも自然言語でコーディングに関する質問をAIが答えてくれる

                      GitHubは、自然言語でコーディングに関する質問をAIに問い合わせ、回答してもらえる「GitHub Copilot Chat」が、モバイルアプリケーションのGitHub Mobileでも正式に利用可能になったことを明らかにしました。 GitHub MobileでGitHub Copilot Chatが利用可能になったことで、開発者はどこにいてもモバイルデバイスを使って自然言語でAIにコーディングに関するさまざまな質問を投げかけ、答えを得ることができると、次のように説明されています。 With GitHub Copilot Chat natively integrated with GitHub Mobile, developers can access their AI coding assistant to get answers for all their coding questi

                        GitHub Copilot ChatがGitHub Mobileでも正式に利用可能に。どこでも自然言語でコーディングに関する質問をAIが答えてくれる
                      • 理由って結局は後付けの言語化でしょ? まず最初に感覚的なふわっとした「..

                        理由って結局は後付けの言語化でしょ? まず最初に感覚的なふわっとした「好き」か「嫌い」があって、そこから必要に応じて理由を考えるわけじゃん。 俺は「好きに理由は無い/嫌いな理由はある」派だけど、なんでそうなるかっえいうと言語化の必要性ってところが大きい。 だって好きの理由をわざわざ分析して言語化する必要なんてなくない? 逆に嫌いな理由はちゃんと考えて言語化する。 俺が嫌いなものを好きな人もいるだろうから、そこを頭ごなしに否定したくないから。マナーみたいなもんだね。

                          理由って結局は後付けの言語化でしょ? まず最初に感覚的なふわっとした「..
                        • 鈴木馨祐氏の「自民の力そぎたい」発言 野党が反発「言語道断」 | 毎日新聞

                          自民党の鈴木馨祐氏が12日、政治資金規正法改正の議論をめぐり「自民の力をそぎたいという政局的な話と再発防止がごっちゃになっている」と発言したことについて、立憲民主党の泉健太代表は13日、記者団に「不透明な資金の流れを止めようとすると自民党の力がそがれるということは、それだけ自民党が不透明な資金に支えられてきたことの証明だ」と皮肉をこめて語った。 共産党の小池晃書記局長は記者会見で鈴木氏の発言を「言語道断だ」と批判。「いかに自民党が、ひとかけらも反省をしていないかということがはっきり表れた」と強調した。【源馬のぞみ、田辺佑介】

                            鈴木馨祐氏の「自民の力そぎたい」発言 野党が反発「言語道断」 | 毎日新聞
                          • スパコン「富岳」で学習した日本語特化大規模言語モデル「Fugaku-LLM」が公開される

                            スーパーコンピューター「富岳」を用いて学習した130億パラメータの大規模言語モデル「Fugaku-LLM」が2024年5月10日(金)に公開されました。Fugaku-LLMは既存の大規模言語モデルに頼らず独自の学習データを用いて学習しており、既存の日本語特化大規模言語モデルと比べて高い性能を発揮することがアピールされています。 スーパーコンピュータ「富岳」で学習した大規模言語モデル「Fugaku-LLM」を公開 日本語能力に長け、研究・ビジネス利用にも期待 | 東工大ニュース | 東京工業大学 https://www.titech.ac.jp/news/2024/069217 スーパーコンピュータ「富岳」で学習した大規模言語モデル「Fugaku-LLM」を公開 : 富士通 https://pr.fujitsu.com/jp/news/2024/05/10.html Fugaku-LLMは2

                              スパコン「富岳」で学習した日本語特化大規模言語モデル「Fugaku-LLM」が公開される
                            • プログラミング言語で書かれた謎の広告→「分かる人」が見ると……? 粋なアイデアが「おしゃれ」と話題 東急に制作背景を聞いた

                              東急グループのデジタル技術による街づくりプロジェクト、「URBAN HACKS」の電車内広告が「面白い!」「おしゃれな広告」と話題です。CSSの記述に見える文字列をよく見てみると……? 「分かる人には分かる」広告が話題 話題になっているのは、Webページの装飾を設定するためのプログラミング言語「CSS」風の文字列が黒い背景に並んでいる電車内広告。「エンジニア デザイナー募集」の記載もあるため求人広告とは分かりますが、コード部分の意味は一見しただけでは分かりません。 CSS部分をよく見ると…… しかしよくよくコードを読んでみると、「skill: 100%;」「org-style: flat;」「work-space: unset;」など、実は職場環境を紹介する文になっているのです! 「フラットな社風で働く場所は自由、スキルを100%生かせる仕事です」といった感じかな……? 別バージョンでは「

                                プログラミング言語で書かれた謎の広告→「分かる人」が見ると……? 粋なアイデアが「おしゃれ」と話題 東急に制作背景を聞いた
                              • Go言語の学習 その5 (パッケージ定義とパッケージインポート) - Cou氏の徒然日記

                                coublood.hatenablog.com 前回は、ローカルの別パッケージをimportして、その関数を呼び出すようにしてみました。 C:. │  hello.go │  main.go │ └─print outmessage.go Go言語はパッケージ周りに色々と制約が他にもあるので、このあたりをもう少し色々と見てみようかなと思います。 ◆ 同一階層に複数パッケージ定義は不可 Javaとかは1ファイル1クラス以上の定義で、インポートするのはクラス単位のイメージでした。 ただ、Go言語だと、クラスではなくモジュール、インポート対象はパッケージ単位のようです。 そのため、同一ディレクトリ階層で複数のパッケージを定義するとダメなようです。 試しに C:. │  hello.go <- mainパッケージ │  main.go <- main2パッケージ のようにしてみると… found

                                  Go言語の学習 その5 (パッケージ定義とパッケージインポート) - Cou氏の徒然日記
                                • プログラミング言語で書かれた謎の広告→「分かる人」が見ると……? 粋なアイデアが「おしゃれ」と話題 東急に制作背景を聞いた(ねとらぼ) - Yahoo!ニュース

                                  東急グループのデジタル技術による街づくりプロジェクト、「URBAN HACKS」の電車内広告が「面白い!」「おしゃれな広告」と話題です。CSSの記述に見える文字列をよく見てみると……? 【画像】謎の広告を翻訳した結果 「分かる人には分かる」広告が話題 話題になっているのは、Webページの装飾を設定するためのプログラミング言語「CSS」風の文字列が黒い背景に並んでいる電車内広告。「エンジニア デザイナー募集」の記載もあるため求人広告とは分かりますが、コード部分の意味は一見しただけでは分かりません。 しかしよくよくコードを読んでみると、「skill: 100%;」「org-style: flat;」「work-space: unset;」など、実は職場環境を紹介する文になっているのです! 「フラットな社風で働く場所は自由、スキルを100%生かせる仕事です」といった感じかな……? また、オフィス

                                    プログラミング言語で書かれた謎の広告→「分かる人」が見ると……? 粋なアイデアが「おしゃれ」と話題 東急に制作背景を聞いた(ねとらぼ) - Yahoo!ニュース
                                  • スーパーコンピュータ「富岳」で学習した大規模言語モデル「Fugaku-LLM」を公開 日本語能力に長け、研究・ビジネス利用にも期待

                                    要点 日本の計算機技術を用いて開発した日本語能力に優れた大規模言語モデルを公開 スーパーコンピュータ「富岳」の性能を最大限に活用した分散並列学習を実現 AI基盤モデルを科学研究に活用する「AI for Science」など革新的な研究やビジネスにつながる 概要 東京工業大学 学術国際情報センターの横田理央教授の研究チームと東北大学 大学院情報科学研究科の坂口慶祐准教授、富士通株式会社 人工知能研究所の白幡晃一シニアプロジェクトディレクター、理化学研究所 のMohamed Wahib(モハメド・ワヒブ)チームリーダー、名古屋大学 大学院工学研究科の西口浩司准教授、株式会社サイバーエージェント AI事業本部AI Labの佐々木翔大リサーチサイエンティスト、Kotoba Technologies Inc. の小島熙之CEOは、理化学研究所のスーパーコンピュータ「富岳」を用いて学習した日本語能力に

                                      スーパーコンピュータ「富岳」で学習した大規模言語モデル「Fugaku-LLM」を公開 日本語能力に長け、研究・ビジネス利用にも期待
                                    • Go製バイナリを配布するためのGitHubワークフロー - Plan 9とGo言語のブログ

                                      前置き 以前、BuildInfoからバージョンを取得する方法を紹介しました。 blog.lufia.org go installで正規の公開されたバージョンをインストールした場合は、以下の出力においてmodの行が示すように、sum.golang.orgでチェックサム等が検証されてバイナリのメタデータに埋め込まれます。 $ go version -m dotsync dotsync: go1.22.2 path github.com/lufia/dotsync mod github.com/lufia/dotsync v0.0.2 h1:JWm92Aw8pSKJ4eHiQZIsE/4rgwk3h5CjEbJ/S30wiOU= build -buildmode=exe build -compiler=gc build -trimpath=true build DefaultGODEBUG=ht

                                        Go製バイナリを配布するためのGitHubワークフロー - Plan 9とGo言語のブログ
                                      • スーパーコンピュータ「富岳」で学習した大規模言語モデル「Fugaku-LLM」を公開 : 富士通

                                        PRESS RELEASE 2024年5月10日 東京工業大学 東北大学 富士通株式会社 理化学研究所 名古屋大学 株式会社サイバーエージェント Kotoba Technolgies Inc. スーパーコンピュータ「富岳」で学習した大規模言語モデル「Fugaku-LLM」を公開 日本語能力に長け、研究・ビジネス利用にも期待 要点 日本の計算機技術を用いて開発した日本語能力に優れた大規模言語モデルを公開 スーパーコンピュータ「富岳」の性能を最大限に活用した分散並列学習を実現 AI基盤モデルを科学研究に活用する「AI for Science」など革新的な研究やビジネスにつながる 概要 東京工業大学 学術国際情報センターの横田理央教授の研究チームと東北大学 大学院情報科学研究科の坂口慶祐准教授、富士通株式会社 人工知能研究所の白幡晃一シニアプロジェクトディレクター、理化学研究所 のMohamed

                                          スーパーコンピュータ「富岳」で学習した大規模言語モデル「Fugaku-LLM」を公開 : 富士通
                                        • 「XML」と「YAML」の違いとは? 意外と身近なデータシリアライズ言語

                                          関連キーワード XML | データ データセンターを効率的に管理するには、「XML」(Extensible Markup Language)や「YAML」(YAML Ain't Markup Language)といった「データシリアライズ言語」が鍵になる。データシリアライズ言語は、さまざまな形式のデータを、機械が理解できる形式に変換(シリアライズ)するための言語だ。データシリアライズ言語を活用することで、IT管理者はデータの自動処理や構造化に関するメリットを享受できる。 XMLとYAMLの違いを知ることは、システム設定作業に適したツール選択の近道になるはずだ。本連載はXMLとYAMLの違いや用例を解説し、アプリケーション開発における自動化の可能性を広げる。 XMLとYAMLの違い 実はあれにも使われている「XML」とは 併せて読みたいお薦め記事 システム管理を支える技術 ソフトウェア部品表

                                            「XML」と「YAML」の違いとは? 意外と身近なデータシリアライズ言語
                                          • 言語化がうまくなるために「語彙力」を増やす方法とは 頭のいい人がやっている“思考法”と知性の磨き方

                                            わからない言葉に出会ったら、すぐに辞書を引く 井上陽介氏(以下、井上):この本(『頭のいい人が話す前に考えていること』)を読んでいて言葉の大切さをとても感じました。 例えば品質と言っても、この「品質」の意味合いをどこまで突っ込んで自分なりに理解できるのか。「品質という言葉1つとっても「A社とB社とC社ではまったくとらえ方が違うよね」ということを、しっかりとらえていく必要性があるなと思っていました。 言語化の中で、言葉を再定義していく力とか、名前がないものにあえて名前をつけることもトレーニングしていくといいのではないか、という提案もあったかなと思っています。語彙力と言うのか、言葉力と言うのか、言語化力を高めていくためには何をしていくといいんでしょうか? 安達裕哉氏(以下、安達):語彙には2つあるなと思っています。これは私の師匠の教えそのまんまなんですが、1つは「ちゃんと辞書を引け」ということ

                                              言語化がうまくなるために「語彙力」を増やす方法とは 頭のいい人がやっている“思考法”と知性の磨き方
                                            • 本人も自覚していない“無意識下の本音”を言語化する方法 人が行動を起こす“隠れた理由”を知る、顧客理解のカギ

                                              企業のDXの取り組みや組織設計、マーケター育成などをテーマにトップマーケターを招くグロースXのセミナーに、『なぜ「つい買ってしまう」のか? 「人を動かす隠れた心理」の見つけ方』の著者で、同社執行役員の松本健太郎氏が登壇。「調査を通じて顧客理解を深める具体論」をテーマに、成果を出すチームと成果の乏しいチームの違いや、因果関係を起点に考える顧客理解について語りました。 「顧客理解」の2つのアプローチ 松本健太郎氏(以下、松本):グロースXの松本と申します。ここからは、今日のテーマである「顧客理解」についてお話しします。「顧客理解」というワードは、「未顧客理解」でもいいですし、「消費者理解」でも「人間理解」でもいいと思うんですが、「対・人を知る」という定義にした際に、大きく2つのアプローチがあると思います。 1つは、スライドAの群やマスなどの「結果」を理解すること。この意味での顧客理解は定量調査

                                                本人も自覚していない“無意識下の本音”を言語化する方法 人が行動を起こす“隠れた理由”を知る、顧客理解のカギ
                                              • OPAC等レガシーな検索システムに対する大規模言語モデル技術の適用可能性について | Jxiv, JSTプレプリントサーバ

                                                プレプリント / バージョン2 OPAC等レガシーな検索システムに対する大規模言語モデル技術の適用可能性について ##article.authors## 小野, 亘 人間文化研究機構本部事務局 https://orcid.org/0000-0002-6398-9317 DOI: https://doi.org/10.51094/jxiv.679 キーワード: 大学図書館、 OPAC、 大規模言語モデル、 生成AI、 蔵書検索 抄録 本稿は、GPTのような大規模言語モデル(LLM)の技術の進展に伴い、図書館の蔵書検索(OPAC)のようなレガシーな検索システムに対して、GPTのような大規模言語モデルの技術が、検索質問の生成、検索式への変換、意味を考慮した検索、結果の表示と適合性の評価という検索課程のそれぞれに対して、適用できることを示した。また、OPAC自体がLLMに対しての情報基盤となり得る

                                                • 日本語特化の言語モデル「Japanese Stable LM 2 1.6B」をリリースしました — Stability AI Japan

                                                  ポイント Japanese Stable LM 2 1.6B(JSLM2 1.6B)は16億パラメータで学習した日本語の小型言語モデルです。 JSLM2 1.6Bのモデルサイズを16億パラメータという少量にすることによって、利用するために必要なハードウェアを小規模に抑えることが可能であり、より多くの開発者が生成AIのエコシステムに参加できるようにします。 ベースモデルとしてJapanese Stable LM 2 Base 1.6Bと、指示応答学習(Instruction tuning)済みのJapanese Stable LM 2 Instruct 1.6Bを提供します。両モデルともStability AI メンバーシップで商用利用が可能です。また、どちらのモデルもHugging Faceからダウンロードすることができます。 Japanese Stable LM 2 Base 1.6B

                                                    日本語特化の言語モデル「Japanese Stable LM 2 1.6B」をリリースしました — Stability AI Japan
                                                  • クジラの言語構造、想像以上に人間の言語に近かった

                                                    マッコウクジラは「コーダ」と呼ばれる短いクリック音のシステムを用いて仲間内でコミュニケーションをとることが知られている。MITの研究チームは、統計モデルを用いた分析で、コーダによるやり取りが文脈に応じて構造化されていることを明らかにした。 by Rhiannon Williams2024.05.09 293 15 マッコウクジラは魅力的な生き物だ。あらゆる種の中で最大の脳を持ち、その大きさは人間の6倍もある。その大きな脳は、知的で理性的な行動をサポートするために進化したのではないかと科学者たちは考えている。 マッコウクジラは社会性が高く、集団で意思決定をする能力を持ち、複雑な採餌行動をとる。 しかし、マッコウクジラが「コーダ」と呼ばれる短いクリック音のシステムを用いてコミュニケーションをとるとき、お互いに何を伝えようとしているのかなど、マッコウクジラについてはわかっていないことも多い。そん

                                                      クジラの言語構造、想像以上に人間の言語に近かった
                                                    • RAMが16KBあればとりあえず動くプログラミング言語 まつもとゆきひろ氏が「mruby/c」の特徴を解説

                                                      RAMが16KBあればとりあえず動くプログラミング言語 まつもとゆきひろ氏が「mruby/c」の特徴を解説 #23 mruby/c mrubyに派生して存在するmruby/c まつもとゆきひろ氏:こんにちは、まつもとゆきひろです。Matzチャンネル、23回目ですね。今日は、前回予告した「mruby Kaigi」のパネルの話をする前に、mruby/c、「エムルビーシー」って発音しています……の紹介を先にしておこうと思います。 Rubyの派生で、別実装であるmrubyなんですが、さらに派生として、mruby/cというのが存在しています。 背景としては、軽量Rubyとして始まったmrubyなんですけれども、2010年の時点で、5年後のマイクロコントローラのCPUパワーとメモリは、Rubyを実行するのに十分なだけのパワーと容量を持っているという予想をしていたんですね。2010年から数えて5年後なの

                                                        RAMが16KBあればとりあえず動くプログラミング言語 まつもとゆきひろ氏が「mruby/c」の特徴を解説
                                                      • 「知的単純作業」を自動化する、地に足の着いた大規模言語モデル (LLM) の活用

                                                        LayerX 部門執行役員・AI・LLM事業部長 中村龍矢 2024/5/8 生成AI Conf

                                                          「知的単純作業」を自動化する、地に足の着いた大規模言語モデル (LLM) の活用
                                                        • IBMが自社製AI「Granite」のコード生成モデルをオープンソース化、116のプログラミング言語でトレーニングされパラメータは30~340億

                                                          ソフトウェアは現代社会のありとあらゆる側面に取り込まれており、飛躍的な生産性の向上や科学技術の発展に貢献してきました。しかし、信頼性の高いソフトウェアの作成・デバッグ・展開といった作業は骨が折れるものであり、熟練した開発者でも最新の技術や言語に追いつくのは大変です。そこでアメリカの大手IT企業であるIBMは、プログラミングコードの生成・修正・別言語への翻訳などのタスクを実行するGraniteコード生成モデルのファミリーをオープンソースで公開しました。 IBM’s Granite code model family is going open source - IBM Research https://research.ibm.com/blog/granite-code-models-open-source GitHub - ibm-granite/granite-code-models:

                                                            IBMが自社製AI「Granite」のコード生成モデルをオープンソース化、116のプログラミング言語でトレーニングされパラメータは30~340億
                                                          • ロボットのトレーニングを大規模言語モデルで加速する技術「DrEureka」をNVIDIAなどの研究チームが開発

                                                            ロボットに新しいスキルを習得させる場合、まずシミュレーション環境でトレーニングを行い、それから現実環境に展開するのが一般的ですが、その際にシミュレーション環境と現実環境のギャップが課題になります。このギャップを埋める作業を大規模言語モデルで自動化する技術「DrEureka」を、NVIDIAやペンシルベニア大学、テキサス大学オースティン校などの研究チームが開発しました。 DrEureka | Language Model Guided Sim-To-Real Transfer https://eureka-research.github.io/dr-eureka/ Nvidia’s DrEureka outperforms humans in training robotics systems | VentureBeat https://venturebeat.com/automation/

                                                              ロボットのトレーニングを大規模言語モデルで加速する技術「DrEureka」をNVIDIAなどの研究チームが開発
                                                            • 1つの大きなLLM(大規模言語モデル)を複数のGPUで力を合わせて動かそう | IIJ Engineers Blog

                                                              地方拠点の一つ、九州支社に所属しています。サーバ・ストレージを中心としたSI業務に携わってましたが、現在は技術探索・深堀業務を中心に対応しています。 2018年に難病を患ったことにより、定期的に入退院を繰り返しつつ、2023年には男性更年期障害の発症をきっかけに、トランスジェンダーとしての道を歩み始めてます。 LLM群雄割拠の時代 昨今、ローカルGPUで駆動できるようなLLM(大規模言語モデル)もかなり増えてきて、キャッチコピー的に「ついに我が家にもGPT-4が!」とか言われるようになってまいりました。パラメータ規模で言えば70億~130億(7B-13B)パラメータ、700億(70B)パラメータ、1400億(140B)パラメータあたりのモデルが活発にリリースされているように見受けられます。 大きなモデルをGPU寄せ集めしつつ遊びたい! しかしながら、コンシュマー向けのGPUにおいては、7B

                                                                1つの大きなLLM(大規模言語モデル)を複数のGPUで力を合わせて動かそう | IIJ Engineers Blog
                                                              • ビジネス用生成AIアシスタント「Amazon Q」公開 自然言語でアプリ作れる「Amazon Q Apps」も

                                                                米Amazon傘下のAmazon Web Services(AWS)は4月30日(現地時間)、ソフトウェア開発や社内データの参照など、ビジネス利用に特化した生成AIアシスタント「Amazon Q」の一般提供を始めた。 2023年11月に発表したサービスを一般向けにリリースした。料金は1ユーザー当たり20ドルから。英語版のみ。 ユーザーは、チャットUIを通じて、コード生成やテスト・デバッグ、計画・推論、生成したコードの変換、新たなコードの実装など、ソフトウェア開発を効率化できる。 企業のデータベース基盤に接続すれば、コードベースや製品情報、業績、人材などの質問に回答させることができる他、データの要約やトレンド解析なども可能だ。 社内データから生成AIアプリを構築できる新機能「Amazon Q Apps」のプレビューも発表した。自然言語でアプリの説明を記述するだけで、求める業務を遂行するアプリ

                                                                  ビジネス用生成AIアシスタント「Amazon Q」公開 自然言語でアプリ作れる「Amazon Q Apps」も
                                                                • Microsoftが独自の大規模言語モデル「MAI-1」を開発中との報道、Google・OpenAI・AnthropicのAIモデルと競合可能なレベルとも

                                                                  Microsoftが独自の大規模言語モデル(LLM)「MAI-1」の開発に取り組んでいると報じられています。このMAI-1は、GoogleのGeminiやOpenAIのGPT-4、AnthropicのClaudeといった最先端のAIモデルに匹敵する可能性があるそうです。 Meet MAI-1: Microsoft Readies New AI Model to Compete With Google, OpenAI — The Information https://www.theinformation.com/articles/meet-mai-1-microsoft-readies-new-ai-model-to-compete-with-google-openai New Microsoft AI model may challenge GPT-4 and Google Gemini

                                                                    Microsoftが独自の大規模言語モデル「MAI-1」を開発中との報道、Google・OpenAI・AnthropicのAIモデルと競合可能なレベルとも
                                                                  • 読めないけどなんかエモい ~宇宙人が使いそうなフリーフォント「異地球言語フォント」/どんな場面で使えるのかは置いておいて、商用も自由【レビュー】

                                                                      読めないけどなんかエモい ~宇宙人が使いそうなフリーフォント「異地球言語フォント」/どんな場面で使えるのかは置いておいて、商用も自由【レビュー】
                                                                    • 大規模言語モデルを使って組織内の全データを検索する時にはどのような前処理を行うと効率的なのか?

                                                                      組織には構造化されたデータベースやきれいにフォーマットされたCSVのほか、何気なく書いたメールから複雑な技術マニュアルまでさまざまな形式のデータが大量に保存されています。検索拡張生成(RAG)は大規模言語モデル(LLM)を使用して全てのデータから適切な情報を引き出すための技術ですが、RAGを使用する際にデータの取り込みと前処理をどのように行うと効率的なのかを、RAG向けデータ前処理サービスを展開するUnstructuredが解説しました。 Understanding What Matters for LLM Ingestion and Preprocessing – Unstructured https://unstructured.io/blog/understanding-what-matters-for-llm-ingestion-and-preprocessing LLMを最大限に

                                                                        大規模言語モデルを使って組織内の全データを検索する時にはどのような前処理を行うと効率的なのか?
                                                                      • 「準備と訓練で運命を支配する」ralphが分析する言語、フロウ、ストーリーテリング

                                                                        段々と日が落ちてきた。周りが薄暗くなり、ralphの鋭い眼球が暗闇の中で光る。通常、アーティストへのインタビューというのは1時間程度で行なわれることが多いが、今回は3時間にも及んだ。普通であれば話さないようなことも、徐々に空気がほぐされていくことで少しずつ口を開いてくれる。 そうなってくると、次に訊きたいテーマとしてはやはり楽曲制作についてだろう。どのようにリリックが書かれているのか、超絶的なラップスキルはいかにして生まれているのか。“硬い”日本語に見出す楽しさとフロウへの洞察、ラップの語彙における“軽重”の層、脈絡を超える「絵画的」な言語と「小説的」な自身の言語の違い、文脈を紡ぐ楽曲とパフォーマンスの映画的なストーリーテリング──。謎に包まれた曲づくりの詳細に踏み込んでいくと、自身を「言語に頼るラッパー」と位置付け、音と言語の構造分析を好むという、ralphならではの論理と感覚の絶妙なバ

                                                                          「準備と訓練で運命を支配する」ralphが分析する言語、フロウ、ストーリーテリング
                                                                        • なんとなく言語 (学) に興味がある人のためのブックガイド|長屋尚典

                                                                          「なんとなく言語 (学) に興味がある人のためのブックガイド」をつくりました。 「なんとなく言語 (学) に興味があるのでもうちょっと読んでみたい」 「言語学にどんな分野があるのか知りたい」 「専門的に勉強したいというほどではないのだけれど、もうちょっと何か読んでみたい」 という人のために、言語 (学) についての入門的な本を紹介します。 これらの本を読んで言語 (学) っておもしろいなと思ったら、ぜひ大学などで言語学の授業を受けたり、専門的な入門書を読んだりしてください。 あるいは、以下の記事を参考に自分で言語学を勉強してみるとよいでしょう。 あくまで、なんとなく言語 (学) に興味がある人のためなので、注意点がいくつかあります。 網羅的なリストではありません。まだまだ編集中です。おもしろかった本があったら教えてください。 基本的に和書で、一般向けの本を紹介しています。 出版年順に並べて

                                                                            なんとなく言語 (学) に興味がある人のためのブックガイド|長屋尚典
                                                                          • 医師に書類作成を拒否され子どもが言語リハビリを受けられない

                                                                            子どもが自閉症児で、今年で5歳になる。 まだ発語がないのだが、1年ほど前から絵カードや写真で意思疎通できるようになってきて、ここ半年くらいで喃語を話すようになり、こちらの言うこともある程度理解してくれるようになってきた。 電車が好きで、喃語ではあるが山手線の駅はすべて言うことができ、またこちらが駅名を言うと該当の駅名の文字を指差すことができる。 また50音表がお気に入りのようで、文字としてはある程度ひらがなを理解しているようだ。 一昨年に区の児童発達支援センターで言語聴覚士さんにみてもらったのだが、「早めにリハビリしたほうが良さそうだが、区の言語聴覚士は人数が限られており、定期的なリハビリが難しい」ということで受けることができなかった。 そんな中、自閉症児の親の会の参加者の方から「児童の言語聴覚士の訪問リハビリをしている民間会社がある」と紹介を受けた。 お試しできるということで来ていただい

                                                                              医師に書類作成を拒否され子どもが言語リハビリを受けられない
                                                                            • バイデン氏の“日本は外国人嫌い”発言「上から目線で愚か、言語道断」と米識者も批判(飯塚真紀子) - エキスパート - Yahoo!ニュース

                                                                              「国の経済は皆さんや他の多くの人のおかげで繁栄している。なぜなら、我々は移民を歓迎しているからだ。ほら、考えてみて。 なぜ中国は経済的にこれほどまでに失速しているのか?  なぜ日本は問題を抱えているのか? なぜロシアもそうなのか? なぜインドもそうなのか? 彼らは外国人嫌いだからだ。 彼らは移民を望んでいないからだ。移民のおかげで我々は強くなった。 これは冗談ではなく、 誇張でもない。なぜなら、私たちの国にはここで働きたい、貢献したいと願う労働者が流入しているからだ」 バイデン氏の“日本は外国人嫌い”発言がアメリカでも問題視されている。しかも、この発言、アメリカの多様性を称えるアジア系アメリカ人、ハワイ先住民、太平洋諸島民ヘリテージ月間の開始を記念してワシントンD.C.のホテルで行われた募金活動の中で発せられたもので、寄付者の聴衆のほとんどがアジア系アメリカ人だったというから驚きだ。バイデ

                                                                                バイデン氏の“日本は外国人嫌い”発言「上から目線で愚か、言語道断」と米識者も批判(飯塚真紀子) - エキスパート - Yahoo!ニュース
                                                                              • 「史実では坂本龍馬は大したことしてない」という説を見かけるが、最新の歴史学を調べてみたら全然活躍してるし「司馬史観」の歪みも言語化できた話

                                                                                倉本圭造@新刊発売中です! @keizokuramoto 経済思想家・経営コンサルタント。大卒でマッキンゼー入社。その後日本らしさを活かす一貫した新しい戦略の探求を始め、社会の真のリアルを見るため時にはブラック企業や肉体労働現場等にまで潜入した後独立。コンサル業のかたわら「個人の奥底からの変革」を支援する”文通サービス”も。その他詳細や著作情報はホームページ↓へ keizokuramoto.com 倉本圭造@新刊発売中です! @keizokuramoto 史実では「坂本龍馬は大したことしてない」「実は織田信長は常識人」という話をSNSで時々見かけますが、最新の歴史学では実際はどういう説になっているのか気になって調べてみたので聞いてください。結論から言うといわゆる「司馬遼太郎史観」が「課長・島耕作」的世界観に立脚していたからこその歪みがこのギャップに繋がっているのだと私は感じました。 ・ 1

                                                                                  「史実では坂本龍馬は大したことしてない」という説を見かけるが、最新の歴史学を調べてみたら全然活躍してるし「司馬史観」の歪みも言語化できた話
                                                                                • 「言語化が苦手な人」と「言語化が得意な人」との決定的なちがい

                                                                                  メガバンク行員として25年以上、個人の資産形成と数千件の法人融資などにかかわり、全国の支店長を指導してきた。副業で始めたセミナーは100組超のキャンセル待ちが続き、3年間で1000組超が受講する人気セミナーとなる。その後、2018年にお金のソムリエ協会を設立。本業以上の副収入を得て、セミリタイアする会員が続出するなど、メソッドを学んだ人数は6000人を超える。お金のソムリエ協会で最初に学ぶ「夢実現メソッド」は、ふせんを使った思考整理術。その起源は銀行員時代。個人情報の法整備が進み、情報を持ち歩けなくなったため、書いては簡単に捨てられるふせんを駆使して、思考を整理する方法を編み出す。やがて、ビジネスパーソン向けに『1冊の「ふせんノート」で人生は、はかどる』(フォレスト出版)を出版。「週刊ダイヤモンド」「The21」「日経WOMAN」ほか、多数のメディアで紹介される。人生の設計図を作る「夢実現

                                                                                    「言語化が苦手な人」と「言語化が得意な人」との決定的なちがい