並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 87件

新着順 人気順

言語の検索結果1 - 40 件 / 87件

  • クジラの言語構造、想像以上に人間の言語に近かった

    マッコウクジラは「コーダ」と呼ばれる短いクリック音のシステムを用いて仲間内でコミュニケーションをとることが知られている。MITの研究チームは、統計モデルを用いた分析で、コーダによるやり取りが文脈に応じて構造化されていることを明らかにした。 by Rhiannon Williams2024.05.09 293 15 マッコウクジラは魅力的な生き物だ。あらゆる種の中で最大の脳を持ち、その大きさは人間の6倍もある。その大きな脳は、知的で理性的な行動をサポートするために進化したのではないかと科学者たちは考えている。 マッコウクジラは社会性が高く、集団で意思決定をする能力を持ち、複雑な採餌行動をとる。 しかし、マッコウクジラが「コーダ」と呼ばれる短いクリック音のシステムを用いてコミュニケーションをとるとき、お互いに何を伝えようとしているのかなど、マッコウクジラについてはわかっていないことも多い。そん

      クジラの言語構造、想像以上に人間の言語に近かった
    • なんとなく言語 (学) に興味がある人のためのブックガイド|長屋尚典

      「なんとなく言語 (学) に興味がある人のためのブックガイド」をつくりました。 「なんとなく言語 (学) に興味があるのでもうちょっと読んでみたい」 「言語学にどんな分野があるのか知りたい」 「専門的に勉強したいというほどではないのだけれど、もうちょっと何か読んでみたい」 という人のために、言語 (学) についての入門的な本を紹介します。 これらの本を読んで言語 (学) っておもしろいなと思ったら、ぜひ大学などで言語学の授業を受けたり、専門的な入門書を読んだりしてください。 あるいは、以下の記事を参考に自分で言語学を勉強してみるとよいでしょう。 あくまで、なんとなく言語 (学) に興味がある人のためなので、注意点がいくつかあります。 網羅的なリストではありません。まだまだ編集中です。おもしろかった本があったら教えてください。 基本的に和書で、一般向けの本を紹介しています。 出版年順に並べて

        なんとなく言語 (学) に興味がある人のためのブックガイド|長屋尚典
      • 「知的単純作業」を自動化する、地に足の着いた大規模言語モデル (LLM) の活用

        LayerX 部門執行役員・AI・LLM事業部長 中村龍矢 2024/5/8 生成AI Conf

          「知的単純作業」を自動化する、地に足の着いた大規模言語モデル (LLM) の活用
        • 「史実では坂本龍馬は大したことしてない」という説を見かけるが、最新の歴史学を調べてみたら全然活躍してるし「司馬史観」の歪みも言語化できた話

          倉本圭造@新刊発売中です! @keizokuramoto 経済思想家・経営コンサルタント。大卒でマッキンゼー入社。その後日本らしさを活かす一貫した新しい戦略の探求を始め、社会の真のリアルを見るため時にはブラック企業や肉体労働現場等にまで潜入した後独立。コンサル業のかたわら「個人の奥底からの変革」を支援する”文通サービス”も。その他詳細や著作情報はホームページ↓へ keizokuramoto.com 倉本圭造@新刊発売中です! @keizokuramoto 史実では「坂本龍馬は大したことしてない」「実は織田信長は常識人」という話をSNSで時々見かけますが、最新の歴史学では実際はどういう説になっているのか気になって調べてみたので聞いてください。結論から言うといわゆる「司馬遼太郎史観」が「課長・島耕作」的世界観に立脚していたからこその歪みがこのギャップに繋がっているのだと私は感じました。 ・ 1

            「史実では坂本龍馬は大したことしてない」という説を見かけるが、最新の歴史学を調べてみたら全然活躍してるし「司馬史観」の歪みも言語化できた話
          • プログラミング言語で書かれた謎の広告→「分かる人」が見ると……? 粋なアイデアが「おしゃれ」と話題 東急に制作背景を聞いた

            東急グループのデジタル技術による街づくりプロジェクト、「URBAN HACKS」の電車内広告が「面白い!」「おしゃれな広告」と話題です。CSSの記述に見える文字列をよく見てみると……? 「分かる人には分かる」広告が話題 話題になっているのは、Webページの装飾を設定するためのプログラミング言語「CSS」風の文字列が黒い背景に並んでいる電車内広告。「エンジニア デザイナー募集」の記載もあるため求人広告とは分かりますが、コード部分の意味は一見しただけでは分かりません。 CSS部分をよく見ると…… しかしよくよくコードを読んでみると、「skill: 100%;」「org-style: flat;」「work-space: unset;」など、実は職場環境を紹介する文になっているのです! 「フラットな社風で働く場所は自由、スキルを100%生かせる仕事です」といった感じかな……? 別バージョンでは「

              プログラミング言語で書かれた謎の広告→「分かる人」が見ると……? 粋なアイデアが「おしゃれ」と話題 東急に制作背景を聞いた
            • 日本語特化の言語モデル「Japanese Stable LM 2 1.6B」をリリースしました — Stability AI Japan

              ポイント Japanese Stable LM 2 1.6B(JSLM2 1.6B)は16億パラメータで学習した日本語の小型言語モデルです。 JSLM2 1.6Bのモデルサイズを16億パラメータという少量にすることによって、利用するために必要なハードウェアを小規模に抑えることが可能であり、より多くの開発者が生成AIのエコシステムに参加できるようにします。 ベースモデルとしてJapanese Stable LM 2 Base 1.6Bと、指示応答学習(Instruction tuning)済みのJapanese Stable LM 2 Instruct 1.6Bを提供します。両モデルともStability AI メンバーシップで商用利用が可能です。また、どちらのモデルもHugging Faceからダウンロードすることができます。 Japanese Stable LM 2 Base 1.6B

                日本語特化の言語モデル「Japanese Stable LM 2 1.6B」をリリースしました — Stability AI Japan
              • 「BASIC」誕生60周年--コンピューター利用を容易にしたシンプルな言語の歴史

                Steven J. Vaughan-Nichols (Special to ZDNET.com) 翻訳校正: 川村インターナショナル 2024-05-15 07:30 「Python」や「JavaScript」が学ばれるようになるずっと前、米国時間1964年5月1日の夜明け前の暗闇の中で、コンピューター史におけるささやかながら非常に重要な出来事がダートマス大学で幕を開けた。数学者のJohn G. Kemeny氏とThomas E. Kurtz氏がGeneral Electricの「GE-225」メインフレームを操作して、独自に考案した言語の最初のプログラムを実行した。その言語こそ、初心者向け汎用記号命令コード、すなわち「BASIC」だ。 BASICは最初に普及した言語ではない。その栄誉を得たのは、ビジネス分野では「COBOL」、エンジニアリング分野では「FORTRAN」だった。しかし、19

                  「BASIC」誕生60周年--コンピューター利用を容易にしたシンプルな言語の歴史
                • 医師に書類作成を拒否され子どもが言語リハビリを受けられない

                  子どもが自閉症児で、今年で5歳になる。 まだ発語がないのだが、1年ほど前から絵カードや写真で意思疎通できるようになってきて、ここ半年くらいで喃語を話すようになり、こちらの言うこともある程度理解してくれるようになってきた。 電車が好きで、喃語ではあるが山手線の駅はすべて言うことができ、またこちらが駅名を言うと該当の駅名の文字を指差すことができる。 また50音表がお気に入りのようで、文字としてはある程度ひらがなを理解しているようだ。 一昨年に区の児童発達支援センターで言語聴覚士さんにみてもらったのだが、「早めにリハビリしたほうが良さそうだが、区の言語聴覚士は人数が限られており、定期的なリハビリが難しい」ということで受けることができなかった。 そんな中、自閉症児の親の会の参加者の方から「児童の言語聴覚士の訪問リハビリをしている民間会社がある」と紹介を受けた。 お試しできるということで来ていただい

                    医師に書類作成を拒否され子どもが言語リハビリを受けられない
                  • 【毎日書評】頭の回転が速い人がやっている「言語化力」を高める習慣 | ライフハッカー・ジャパン

                    著者によれば、『頭の回転が速い人の言語化のコツ』(金山拓夢 著、総合法令出版)で解説されている「言語化力」とは“相手にわかりやすいかたちで自分の考えや意見を伝える能力”のことなのだそう。 言語化ができるようになると、自分の想いや考えが相手に伝わるようになり、人間関係が驚くほど変わります。 仕事はもちろん、友人、恋愛でも良い関係を築くことができます。さらには、ありきたりな言葉ではなく、あなただけの言葉で想いを伝えられるようになります。 自分の言葉で話せる人は、やがて人から信頼されるようになり、結果的に自分に自信を持てるようになります。(「はじめに 言語化できる人から順に信頼されていく」より) 難しいことのように思えるかもしれませんが、自分の想いや考えを言語化するにはコツがあり、それは難しいことではないのだとか。日常的にちょっと意識しておくだけで、変えていけることばかりだというのです。つまり本

                      【毎日書評】頭の回転が速い人がやっている「言語化力」を高める習慣 | ライフハッカー・ジャパン
                    • 自然言語プログラミングZoltraak(ゾルトラーク)が超絶すごい

                      先日、X(Twitter)で、2万人以上のフォロワーを持ち、起業家でありプログラマでもある元木大介さん(@ai_syacho)が、「Zoltraak(ゾルトラーク)」という自然言語プログラムを発表されました。 このZoltraakは、生成AIに対し自然言語(何らかの既存プログラミング言語ではなく日本語)で命令できる、新しいタイプのものです。 ChatGPTとどこが違うの? 「え、ChatGPTでも日本語でお願いできるじゃん」と思いますよね? ChatGPTとZoltraakでは、出力の考え方が根本的に違っています。 現在の生成AIは対話式がメイン ChatGPTに代表される生成AIは対話式です。 GPT、Gemini、Copilotなどの生成AIは向上を続け、入力できるテキスト量こそ増えました。しかし、業務全体を俯瞰して依頼することはまだ難しいのが実情です。 分解したタスク毎に内容を依頼し

                        自然言語プログラミングZoltraak(ゾルトラーク)が超絶すごい
                      • 理由って結局は後付けの言語化でしょ? まず最初に感覚的なふわっとした「..

                        理由って結局は後付けの言語化でしょ? まず最初に感覚的なふわっとした「好き」か「嫌い」があって、そこから必要に応じて理由を考えるわけじゃん。 俺は「好きに理由は無い/嫌いな理由はある」派だけど、なんでそうなるかっえいうと言語化の必要性ってところが大きい。 だって好きの理由をわざわざ分析して言語化する必要なんてなくない? 逆に嫌いな理由はちゃんと考えて言語化する。 俺が嫌いなものを好きな人もいるだろうから、そこを頭ごなしに否定したくないから。マナーみたいなもんだね。

                          理由って結局は後付けの言語化でしょ? まず最初に感覚的なふわっとした「..
                        • Apple、iPhoneでも稼働するオープンな言語モデル「OpenELM」を公開

                          米Appleの研究者らは4月24日(現地時間)、オープンソースの言語モデル「OpenELM」(ELMはEfficient Language Model、効率的な言語モデルの略)をHugging Faceで公開した。 パラメータ数の異なる4つのモデルがある。小さいものから、2億7000万、4億5000万、11億、30億(パラメータとは、意思決定でモデルがトレーニングデータセットから理解する変数の数を示す)。 AppleがAIのモデルを公開することはこれまでほとんどなかったが、OpenELMの「広範なリリースは、オープンな研究コミュニティを支援し、発展させることが目的」という。 Appleは、OpenELMとともに、開発者がモデルをソフトウェアに組み込めるように設計された複数のツールもオープンソース化した。その中にはiPhoneやMac上でモデルを実行できるようにするライブラリも含まれる。 「

                            Apple、iPhoneでも稼働するオープンな言語モデル「OpenELM」を公開
                          • 1つの大きなLLM(大規模言語モデル)を複数のGPUで力を合わせて動かそう | IIJ Engineers Blog

                            地方拠点の一つ、九州支社に所属しています。サーバ・ストレージを中心としたSI業務に携わってましたが、現在は技術探索・深堀業務を中心に対応しています。 2018年に難病を患ったことにより、定期的に入退院を繰り返しつつ、2023年には男性更年期障害の発症をきっかけに、トランスジェンダーとしての道を歩み始めてます。 LLM群雄割拠の時代 昨今、ローカルGPUで駆動できるようなLLM(大規模言語モデル)もかなり増えてきて、キャッチコピー的に「ついに我が家にもGPT-4が!」とか言われるようになってまいりました。パラメータ規模で言えば70億~130億(7B-13B)パラメータ、700億(70B)パラメータ、1400億(140B)パラメータあたりのモデルが活発にリリースされているように見受けられます。 大きなモデルをGPU寄せ集めしつつ遊びたい! しかしながら、コンシュマー向けのGPUにおいては、7B

                              1つの大きなLLM(大規模言語モデル)を複数のGPUで力を合わせて動かそう | IIJ Engineers Blog
                            • 【随時更新】主要な大規模言語モデル比較表

                              これはなに? ひょんなことからOpenAI・Anthropic・GoogleのLLMの一覧表を作りました 手前味噌ながら便利だなと思ったのでZennにも載せておきます 各社のモデルの主要諸元・費用に加えて、自分の印象を書いてあります。 性能の目安としてChatbot Arenaのスコアを参考までに添付しています これはあくまで参考用かつ英語での評価なので、スコアが一番高いものがいい、もしくは低いからダメというわけではありません。 少なくともこの記事に掲載されているモデルは、スコアが低いものでも単純な翻訳などでは十分な性能を持っています。そして何より高性能モデルとは比較にならないほど高速です。 用途や使用言語によって試してみて最適なものを選ぶのが良いでしょう OpenAI 歴史的経緯もあり、以下の表に掲載するもの以外にも大量のモデルがあります。 一旦は最新のモデルを列挙します。 モデル名 A

                                【随時更新】主要な大規模言語モデル比較表
                              • Go製バイナリを配布するためのGitHubワークフロー - Plan 9とGo言語のブログ

                                前置き 以前、BuildInfoからバージョンを取得する方法を紹介しました。 blog.lufia.org go installで正規の公開されたバージョンをインストールした場合は、以下の出力においてmodの行が示すように、sum.golang.orgでチェックサム等が検証されてバイナリのメタデータに埋め込まれます。 $ go version -m dotsync dotsync: go1.22.2 path github.com/lufia/dotsync mod github.com/lufia/dotsync v0.0.2 h1:JWm92Aw8pSKJ4eHiQZIsE/4rgwk3h5CjEbJ/S30wiOU= build -buildmode=exe build -compiler=gc build -trimpath=true build DefaultGODEBUG=ht

                                  Go製バイナリを配布するためのGitHubワークフロー - Plan 9とGo言語のブログ
                                • 鈴木馨祐氏の「自民の力そぎたい」発言 野党が反発「言語道断」 | 毎日新聞

                                  自民党の鈴木馨祐氏が12日、政治資金規正法改正の議論をめぐり「自民の力をそぎたいという政局的な話と再発防止がごっちゃになっている」と発言したことについて、立憲民主党の泉健太代表は13日、記者団に「不透明な資金の流れを止めようとすると自民党の力がそがれるということは、それだけ自民党が不透明な資金に支えられてきたことの証明だ」と皮肉をこめて語った。 共産党の小池晃書記局長は記者会見で鈴木氏の発言を「言語道断だ」と批判。「いかに自民党が、ひとかけらも反省をしていないかということがはっきり表れた」と強調した。【源馬のぞみ、田辺佑介】

                                    鈴木馨祐氏の「自民の力そぎたい」発言 野党が反発「言語道断」 | 毎日新聞
                                  • 言語モデルを高位合成でFPGAに実装してみた

                                    言語モデルを高位合成でFPGAに実装してみた Turing株式会社のリサーチチームでインターンしているM1の内山です。 Turing株式会社では大規模基盤モデルによる完全自動運転を目指しており、その実現に欠かせない技術として大規模言語モデルの研究開発を行っています。 Generative AI LLMの広範な知識と思考能力に加え、視覚情報やセンサーデータなどの多様な入力を受け入れることで、車の周囲の状況を正確に認識します。さらに、世界モデルを適用することで、高度な空間認知と身体性を獲得し、実世界に対応した生成AIを実現します。 https://tur.ing/ より引用 しかしながら、従来の大規模モデルはデータセンターという大量のGPU・潤沢な電源・安定した地盤を備えた豊かな環境で処理されるものであり、対して自動車というものは余りにも狭く、電源が乏しく、振動が大きいという劣悪極まりない環境

                                      言語モデルを高位合成でFPGAに実装してみた
                                    • 言語化がうまくなるために「語彙力」を増やす方法とは 頭のいい人がやっている“思考法”と知性の磨き方

                                      わからない言葉に出会ったら、すぐに辞書を引く 井上陽介氏(以下、井上):この本(『頭のいい人が話す前に考えていること』)を読んでいて言葉の大切さをとても感じました。 例えば品質と言っても、この「品質」の意味合いをどこまで突っ込んで自分なりに理解できるのか。「品質という言葉1つとっても「A社とB社とC社ではまったくとらえ方が違うよね」ということを、しっかりとらえていく必要性があるなと思っていました。 言語化の中で、言葉を再定義していく力とか、名前がないものにあえて名前をつけることもトレーニングしていくといいのではないか、という提案もあったかなと思っています。語彙力と言うのか、言葉力と言うのか、言語化力を高めていくためには何をしていくといいんでしょうか? 安達裕哉氏(以下、安達):語彙には2つあるなと思っています。これは私の師匠の教えそのまんまなんですが、1つは「ちゃんと辞書を引け」ということ

                                        言語化がうまくなるために「語彙力」を増やす方法とは 頭のいい人がやっている“思考法”と知性の磨き方
                                      • プログラミング言語で書かれた謎の広告→「分かる人」が見ると……? 粋なアイデアが「おしゃれ」と話題 東急に制作背景を聞いた(ねとらぼ) - Yahoo!ニュース

                                        東急グループのデジタル技術による街づくりプロジェクト、「URBAN HACKS」の電車内広告が「面白い!」「おしゃれな広告」と話題です。CSSの記述に見える文字列をよく見てみると……? 【画像】謎の広告を翻訳した結果 「分かる人には分かる」広告が話題 話題になっているのは、Webページの装飾を設定するためのプログラミング言語「CSS」風の文字列が黒い背景に並んでいる電車内広告。「エンジニア デザイナー募集」の記載もあるため求人広告とは分かりますが、コード部分の意味は一見しただけでは分かりません。 しかしよくよくコードを読んでみると、「skill: 100%;」「org-style: flat;」「work-space: unset;」など、実は職場環境を紹介する文になっているのです! 「フラットな社風で働く場所は自由、スキルを100%生かせる仕事です」といった感じかな……? また、オフィス

                                          プログラミング言語で書かれた謎の広告→「分かる人」が見ると……? 粋なアイデアが「おしゃれ」と話題 東急に制作背景を聞いた(ねとらぼ) - Yahoo!ニュース
                                        • LEIA: 言語間転移学習でLLMを賢くする新しい方法

                                          Studio Ousiaと理化学研究所に所属している山田育矢です。 この記事では、大規模言語モデル(LLM)の性能を向上させる新しい方法であるLEIA(Lightweight Entity-based Inter-language Adaptation)を紹介します。 LLMは言語によって性能に顕著な差があり、訓練に使われるテキストが最も多い英語において特に性能が高い傾向があることが知られています。LEIAは、LLMが蓄えている英語の知識を他の言語から使えるようにする訓練を施すことで、英語以外の言語でのLLMの性能を向上させる新しい手法です。 この度、英語・日本語の2言語LLMであるSwallowの7Bと13Bのモデルに対してLEIAによる訓練を施して性能向上を行ったモデルを公開します。 ライセンスは、Swallowと同様のLlama 2 Community Licenseです。これらのモ

                                            LEIA: 言語間転移学習でLLMを賢くする新しい方法
                                          • 自分が Moonbit 言語について知っていること

                                            I will write an English version later to give back to the moonbit community. Addition: https://gist.github.com/mizchi/aef3fa9977c8832148b00145a1d20f4b この記事はリバースエンジニアリングを含んでいる。公式の Discord サーバーで質問して得られた内容を含むが、ここに書かれたものは自分の理解であって、公式の見解ではない。 前の紹介記事では煽り気味だったので、実際に調べながら書いてみてどう感じているかという実践的な話をする。 作者と開発組織 開発母体は深センの研究組織 IDEA 元 Meta で BuckleScript | ReScript を開発していた Hongbo Zhang 氏がチーフアーキテクト。 ReScript を知らない人の

                                              自分が Moonbit 言語について知っていること
                                            • 大規模言語モデルを使って組織内の全データを検索する時にはどのような前処理を行うと効率的なのか?

                                              組織には構造化されたデータベースやきれいにフォーマットされたCSVのほか、何気なく書いたメールから複雑な技術マニュアルまでさまざまな形式のデータが大量に保存されています。検索拡張生成(RAG)は大規模言語モデル(LLM)を使用して全てのデータから適切な情報を引き出すための技術ですが、RAGを使用する際にデータの取り込みと前処理をどのように行うと効率的なのかを、RAG向けデータ前処理サービスを展開するUnstructuredが解説しました。 Understanding What Matters for LLM Ingestion and Preprocessing – Unstructured https://unstructured.io/blog/understanding-what-matters-for-llm-ingestion-and-preprocessing LLMを最大限に

                                                大規模言語モデルを使って組織内の全データを検索する時にはどのような前処理を行うと効率的なのか?
                                              • 無料で商用利用可能なSQL生成・コーディング・命令フォローなどのエンタープライズタスクに最適化された大規模言語モデル「Snowflake Arctic」が登場

                                                クラウドベースのデータウェアハウスサービスを展開する企業のSnowflakeが、トップレベルのエンタープライズ向け大規模言語モデル(LLM)として「Snowflake Arctic」をリリースしました。Apacheライセンス バージョン2.0で提供されるオープンなモデルとなっており、無料で商用利用も可能です。 Snowflake Arctic - LLM for Enterprise AI https://www.snowflake.com/blog/arctic-open-efficient-foundation-language-models-snowflake/ Snowflakeの調査では、企業ユーザーはAIを使用して主にデータ支援やコード支援、検索拡張生成(RAG)を行うチャットボットを作成したい場合が多いとのこと。そこで、Snowflakeは「コーディング能力」「SQL生成能力

                                                  無料で商用利用可能なSQL生成・コーディング・命令フォローなどのエンタープライズタスクに最適化された大規模言語モデル「Snowflake Arctic」が登場
                                                • NEC、世界トップレベル性能の高速な大規模言語モデル (LLM) cotomi Pro / cotomi Light を開発

                                                  NECは、LLM(Large Language Model:大規模言語モデル)「cotomi(注1)」のラインアップ拡充のため、学習データやアーキテクチャを刷新した「cotomi Pro」「cotomi Light」を開発しました。 昨今の生成AIの急速な発展に伴い、様々な企業や公共機関が、LLMを活用した業務変革の検討・検証を進めています。具体的な活用シーンが見えてくる中で、導入・運用に際してレスポンスタイム、業務データ連携や情報漏洩・脆弱性等のセキュリティ面など、お客様ニーズにあったモデル・形態での提供が求められています。 NECは、高速性と高性能の両立がお客様の課題解決に必須と考え、LLMのラインアップを拡充しました。今回開発した「cotomi Pro」「cotomi Light」は、グローバルのLLMと同等の高い性能を、十数倍の速度で実現する高速・高性能なモデルです。一般的に、LL

                                                    NEC、世界トップレベル性能の高速な大規模言語モデル (LLM) cotomi Pro / cotomi Light を開発
                                                  • AppleがiPhoneやiPadでローカルに動作するオープンソースの言語モデル「OpenELM」をリリース

                                                    Appleの研究チームが、オープンソースの言語モデル「OpenELM(Open-source Efficient Language Models)」を公開しました。公開されたモデルにはAppleデバイスで動作できるように変換するコードも用意されており、「言語モデルをAppleデバイス上でローカルに実行させる」ことが可能になっています。 [2404.14619] OpenELM: An Efficient Language Model Family with Open-source Training and Inference Framework https://arxiv.org/abs/2404.14619 OpenELM: An Efficient Language Model Family with Open-source Training and Inference Framewo

                                                      AppleがiPhoneやiPadでローカルに動作するオープンソースの言語モデル「OpenELM」をリリース
                                                    • プログラミング言語のBASICが60周年を迎える

                                                      1964年5月1日に登場したプログラミング言語のひとつ「BASIC」が2024年に生誕60周年を迎えました。 The BASIC programming language turns 60 | Ars Technica https://arstechnica.com/gadgets/2024/05/the-basic-programming-language-turns-60/ BASICは、ダートマス大学の数学者だったジョン・G・ケメニーとトーマス・E・カーツによって生み出されたプログラミング言語です。 BASIC以前に存在したFortran、ALGOL、COBOLといったプログラミング言語は複雑で、主にコンピューターの専門家が使用していました。ケメニーとカーツはアマチュアでもコンピューターを使えるようにする必要性を感じ、そのためにユーザーフレンドリーな言語の開発に着手。1963年には初

                                                        プログラミング言語のBASICが60周年を迎える
                                                      • スーパーコンピュータ「富岳」で学習した大規模言語モデル「Fugaku-LLM」を公開 : 富士通

                                                        PRESS RELEASE 2024年5月10日 東京工業大学 東北大学 富士通株式会社 理化学研究所 名古屋大学 株式会社サイバーエージェント Kotoba Technolgies Inc. スーパーコンピュータ「富岳」で学習した大規模言語モデル「Fugaku-LLM」を公開 日本語能力に長け、研究・ビジネス利用にも期待 要点 日本の計算機技術を用いて開発した日本語能力に優れた大規模言語モデルを公開 スーパーコンピュータ「富岳」の性能を最大限に活用した分散並列学習を実現 AI基盤モデルを科学研究に活用する「AI for Science」など革新的な研究やビジネスにつながる 概要 東京工業大学 学術国際情報センターの横田理央教授の研究チームと東北大学 大学院情報科学研究科の坂口慶祐准教授、富士通株式会社 人工知能研究所の白幡晃一シニアプロジェクトディレクター、理化学研究所 のMohamed

                                                          スーパーコンピュータ「富岳」で学習した大規模言語モデル「Fugaku-LLM」を公開 : 富士通
                                                        • ゆる言語学ラジオで紹介された『ビジュアル・シンカーの脳』がAmazonなどの書店からも、そして版元在庫もすっかりなくなったらしい→「しまったー!!!」「書店にあったぜ」買いそびれた人と買えた人の二極化

                                                          みずの@ゆる言語学ラジオ @yuru_mizuno 言語について語るインターネットラジオ「ゆる言語学ラジオ」のスピーカー。ことばの雑学をつぶやきます。初の著書『言語沼』発売中 youtube.com/@yurugengo みずの@ゆる言語学ラジオ @yuru_mizuno 『ビジュアル・シンカーの脳』、バリューブックスからもAmazonからも楽天からも、そして版元在庫もすっかりなくなったらしい。 今のところ重版の報はないけど、重版はあるんだろうか。 買いたかったけど買いそびれた人ってどれくらいいるんだろう。 pic.twitter.com/HMw7Bu2XaF 2024-04-19 15:36:07

                                                            ゆる言語学ラジオで紹介された『ビジュアル・シンカーの脳』がAmazonなどの書店からも、そして版元在庫もすっかりなくなったらしい→「しまったー!!!」「書店にあったぜ」買いそびれた人と買えた人の二極化
                                                          • Microsoftがコスト効率の高い小さめの言語モデル「Phi-3」をリリース、オープンモデルで商用利用可能

                                                            Microsoftが小さい規模で大きな性能を発揮する言語モデルとして「Phi-3」ファミリーをリリースしました。ファミリーの中でも一番小さなサイズのモデルであるPhi-3-miniはオープンモデルとなっており、無料で商用利用が可能です。 Introducing Phi-3: Redefining what's possible with SLMs | Microsoft Azure Blog https://azure.microsoft.com/en-us/blog/introducing-phi-3-redefining-whats-possible-with-slms/ Tiny but mighty: The Phi-3 small language models with big potential - Source https://news.microsoft.com/sour

                                                              Microsoftがコスト効率の高い小さめの言語モデル「Phi-3」をリリース、オープンモデルで商用利用可能
                                                            • ビジネス用生成AIアシスタント「Amazon Q」公開 自然言語でアプリ作れる「Amazon Q Apps」も

                                                              米Amazon傘下のAmazon Web Services(AWS)は4月30日(現地時間)、ソフトウェア開発や社内データの参照など、ビジネス利用に特化した生成AIアシスタント「Amazon Q」の一般提供を始めた。 2023年11月に発表したサービスを一般向けにリリースした。料金は1ユーザー当たり20ドルから。英語版のみ。 ユーザーは、チャットUIを通じて、コード生成やテスト・デバッグ、計画・推論、生成したコードの変換、新たなコードの実装など、ソフトウェア開発を効率化できる。 企業のデータベース基盤に接続すれば、コードベースや製品情報、業績、人材などの質問に回答させることができる他、データの要約やトレンド解析なども可能だ。 社内データから生成AIアプリを構築できる新機能「Amazon Q Apps」のプレビューも発表した。自然言語でアプリの説明を記述するだけで、求める業務を遂行するアプリ

                                                                ビジネス用生成AIアシスタント「Amazon Q」公開 自然言語でアプリ作れる「Amazon Q Apps」も
                                                              • AI利用会話ゲーム『_turing』Steam版正式お披露目。言語モデルによる自由な会話で、ロボット少女に感情を教える - AUTOMATON

                                                                国内のゲーム制作チーム竹関工房は4月25日、『_turing』のSteamストアページを公開した。同作はiOS/Android/Steam(予定)向けに、2024年春リリース予定。竹関工房の公式サイト上では、Steam版について不確定な表記となっていたが、正式にリリースへ向けて進められているようだ。 『_turing』は、AIヒロインとの会話内容によって性格や結末が変わる、SFアドベンチャーゲームだ。本作でプレイヤーは、宇宙船の中でアイリスと2人きりになっている。ヒロインであるアイリスは、人間の感情を知るため、プレイヤーとの会話を望んでいる。そこで本作でプレイヤーは、彼女に「正しく」感情を教えていく。ヒロインのAIアイリスとの自由な会話によって、感情を知ったアイリスの変化や結末が描かれるそうだ。 本作では、アイリスと言語モデルを利用した自由な会話ができる。デモ動画などを見る限り、本作でプレ

                                                                  AI利用会話ゲーム『_turing』Steam版正式お披露目。言語モデルによる自由な会話で、ロボット少女に感情を教える - AUTOMATON
                                                                • 作家さんが新型コロナに罹患して書いた『独特な喉の痛みの言語化』さすがの表現力で怖いけど面白い「ザリガニの内側と外側…?」

                                                                  青崎有吾 @AosakiYugo コロナの喉の痛みの話題が流れてきたので、私が罹患中、お医者さんに「痛さ」を説明するために書き溜めていたメモを貼ります。 pic.twitter.com/9upLoRp9Ta 2024-04-24 14:48:14

                                                                    作家さんが新型コロナに罹患して書いた『独特な喉の痛みの言語化』さすがの表現力で怖いけど面白い「ザリガニの内側と外側…?」
                                                                  • プログラミング言語よりも先にデバッガーの使い方を覚えよう - Qiita

                                                                    はじめに プログラミング学習の初期段階では、多くの教育カリキュラムが言語の文法や基本的な構造に焦点を当てがちですが、現実のソフトウェア開発においてはデバッガーの習得が非常に重要です。実際に、デバッガーを使いこなすことは、開発プロセスを加速し、問題解決の能力を飛躍的に向上させることができます。この記事では、デバッガーをプログラミング言語の学習よりも優先して習得すべき理由と、その方法について詳しく解説します。 デバッガーの基本機能 デバッガーは開発者がコードの実行を細かく制御し、プログラムの挙動を詳細に分析できるツールです。主要な機能には、ブレークポイントの設定、ステップ実行、変数の値の監視と変更が含まれます。これらの機能を用いることで、開発者はコードの特定の行で実行を一時停止させ、プログラムの内部状態を詳しく調査し、バグの原因を正確に特定することが可能になります。 実際によく使用する機能 コ

                                                                      プログラミング言語よりも先にデバッガーの使い方を覚えよう - Qiita
                                                                    • IBMが自社製AI「Granite」のコード生成モデルをオープンソース化、116のプログラミング言語でトレーニングされパラメータは30~340億

                                                                      ソフトウェアは現代社会のありとあらゆる側面に取り込まれており、飛躍的な生産性の向上や科学技術の発展に貢献してきました。しかし、信頼性の高いソフトウェアの作成・デバッグ・展開といった作業は骨が折れるものであり、熟練した開発者でも最新の技術や言語に追いつくのは大変です。そこでアメリカの大手IT企業であるIBMは、プログラミングコードの生成・修正・別言語への翻訳などのタスクを実行するGraniteコード生成モデルのファミリーをオープンソースで公開しました。 IBM’s Granite code model family is going open source - IBM Research https://research.ibm.com/blog/granite-code-models-open-source GitHub - ibm-granite/granite-code-models:

                                                                        IBMが自社製AI「Granite」のコード生成モデルをオープンソース化、116のプログラミング言語でトレーニングされパラメータは30~340億
                                                                      • Llama3,Phi-3などの対話型人工知能(大規模言語モデル)をパソコンで動かす - Qiita

                                                                        かつては大規模言語モデルは,メモリを大量に消費し,大量のGPUが必要なため個人レベルで動かすものではありませんでした.しかし,2024年にLlama3 7BやMixtral 8x7b, Phi-3 smallなどChatGPT-3.5レベルの能力を持ち軽量で無料の大規模言語モデルが登場してきました.それだけではなく,これらの大規模言語モデルをコマンド一つでインストールするが出来るようにもなりました.2024年から,大規模言語モデル(対話型人工知能)を自宅で気軽に動かせる時代になったと言えます. この記事に対話型人工知能をパソコンにインストールする方法とその結果を書きます. 環境 前提としている環境 私は人工知能の研究をしているため,すでにLinux(Debian 12)上でPython3とCUDAが動く環境を整えています.以下の記事はLinuxの使用を前提にしています. パソコンのスペック

                                                                          Llama3,Phi-3などの対話型人工知能(大規模言語モデル)をパソコンで動かす - Qiita
                                                                        • 新しい学校のリーダーズ、圧巻の「コーチェラ」出演に学ぶ、言語を超える音楽の力(徳力基彦) - エキスパート - Yahoo!ニュース

                                                                          世界最大級の音楽フェスとして知られる「コーチェラ」ですが、今年はたくさんの日本人アーティストが出演したことが日本でも大きな話題になりました。 今年は、新しい学校のリーダーズにYOASOBI、そして初音ミクと3組の日本人アーティストが単独のステージに出演。 さらに第1週目には88risingが企画したステージに、新しい学校のリーダーズとYOASOBIに加えて、Number_iやAwichさんも出演したことは日本のメディアでも多数取り上げられていましたので目にした方も多いはずです。 参考:Number_iとAwichのコーチェラ出演に学ぶ、日本の音楽の世界への広げ方 その中でも、「コーチェラ」の会場で最も大きなインパクトを与えたグループとしてご紹介したいのが、新しい学校のリーダーズです。 2週連続、ステージの大トリを務めるなにしろ、新しい学校のリーダーズが担当したのは「コーチェラ」の6つあるス

                                                                            新しい学校のリーダーズ、圧巻の「コーチェラ」出演に学ぶ、言語を超える音楽の力(徳力基彦) - エキスパート - Yahoo!ニュース
                                                                          • RAMが16KBあればとりあえず動くプログラミング言語 まつもとゆきひろ氏が「mruby/c」の特徴を解説

                                                                            RAMが16KBあればとりあえず動くプログラミング言語 まつもとゆきひろ氏が「mruby/c」の特徴を解説 #23 mruby/c mrubyに派生して存在するmruby/c まつもとゆきひろ氏:こんにちは、まつもとゆきひろです。Matzチャンネル、23回目ですね。今日は、前回予告した「mruby Kaigi」のパネルの話をする前に、mruby/c、「エムルビーシー」って発音しています……の紹介を先にしておこうと思います。 Rubyの派生で、別実装であるmrubyなんですが、さらに派生として、mruby/cというのが存在しています。 背景としては、軽量Rubyとして始まったmrubyなんですけれども、2010年の時点で、5年後のマイクロコントローラのCPUパワーとメモリは、Rubyを実行するのに十分なだけのパワーと容量を持っているという予想をしていたんですね。2010年から数えて5年後なの

                                                                              RAMが16KBあればとりあえず動くプログラミング言語 まつもとゆきひろ氏が「mruby/c」の特徴を解説
                                                                            • スパコン「富岳」で学習した日本語特化大規模言語モデル「Fugaku-LLM」が公開される

                                                                              スーパーコンピューター「富岳」を用いて学習した130億パラメータの大規模言語モデル「Fugaku-LLM」が2024年5月10日(金)に公開されました。Fugaku-LLMは既存の大規模言語モデルに頼らず独自の学習データを用いて学習しており、既存の日本語特化大規模言語モデルと比べて高い性能を発揮することがアピールされています。 スーパーコンピュータ「富岳」で学習した大規模言語モデル「Fugaku-LLM」を公開 日本語能力に長け、研究・ビジネス利用にも期待 | 東工大ニュース | 東京工業大学 https://www.titech.ac.jp/news/2024/069217 スーパーコンピュータ「富岳」で学習した大規模言語モデル「Fugaku-LLM」を公開 : 富士通 https://pr.fujitsu.com/jp/news/2024/05/10.html Fugaku-LLMは2

                                                                                スパコン「富岳」で学習した日本語特化大規模言語モデル「Fugaku-LLM」が公開される
                                                                              • スーパーコンピュータ「富岳」で学習した大規模言語モデル「Fugaku-LLM」を公開 日本語能力に長け、研究・ビジネス利用にも期待

                                                                                要点 日本の計算機技術を用いて開発した日本語能力に優れた大規模言語モデルを公開 スーパーコンピュータ「富岳」の性能を最大限に活用した分散並列学習を実現 AI基盤モデルを科学研究に活用する「AI for Science」など革新的な研究やビジネスにつながる 概要 東京工業大学 学術国際情報センターの横田理央教授の研究チームと東北大学 大学院情報科学研究科の坂口慶祐准教授、富士通株式会社 人工知能研究所の白幡晃一シニアプロジェクトディレクター、理化学研究所 のMohamed Wahib(モハメド・ワヒブ)チームリーダー、名古屋大学 大学院工学研究科の西口浩司准教授、株式会社サイバーエージェント AI事業本部AI Labの佐々木翔大リサーチサイエンティスト、Kotoba Technologies Inc. の小島熙之CEOは、理化学研究所のスーパーコンピュータ「富岳」を用いて学習した日本語能力に

                                                                                  スーパーコンピュータ「富岳」で学習した大規模言語モデル「Fugaku-LLM」を公開 日本語能力に長け、研究・ビジネス利用にも期待
                                                                                • Rails × ruby-spacy 環境を Docker で構築して自然言語処理に入門する

                                                                                  Rails で構築しているアプリケーションで自然言語処理を行いたかったので、Ruby で自然言語処理を行えるライブラリの ruby-spacy の検証を行うために docker で環境構築を行うことにしました。 後述しますが、単なる gem ではなくある程度準備が必要なもので、はまった個所もいくつかあったので、備忘録として残します。 ruby-spacy とは ruby-spacy とは Yoichiro Hasebe さんによって開発されたライブラリで、Python 用の自然言語処理ライブラリである spaCy を Ruby で利用できるようにしたライブラリです。 spaCy とは、Python/Cython で構築された自然言語処理を行うためのライブラリで、訓練済みの統計モデルを使用することができます。 参考: https://spacy.io/ 参考: https://ja.wiki

                                                                                    Rails × ruby-spacy 環境を Docker で構築して自然言語処理に入門する