ブックマーク / xtech.nikkei.com (7)

  • 生成AI業界は「GPT2」で騒然、RAGは実用化へ新手法が続々

    生成AI人工知能)を含む最新のAI研究動向を知るため、世界中の研究者やエンジニアが参照しているのが、論文速報サイト「arXiv(アーカイブ)」である。米OpenAI(オープンAI)や米Googleグーグル)などAI開発を主導するIT企業の多くが、研究成果をarXivに競って投稿している。 そんなarXivの投稿論文から、2024年4月(1日~30日)にSNSのX(旧Twitter)で多く言及されたAI分野の注目論文を紹介する。調査には米Meltwater(メルトウォーター)のSNS分析ツールを利用した。対象はXの全世界のオリジナル投稿、コメント、再投稿、引用投稿である。調査は、日経BPが2024年1月に新設したAI・データラボの活動の一環として実施した。 「GPT2」に再び脚光?スケーリング則の論文 最初に取り上げるのが、大規模言語モデル(LLM)のスケーリング則に関する論文「Phys

    生成AI業界は「GPT2」で騒然、RAGは実用化へ新手法が続々
  • データセンター建設が住民の反対で頓挫、大規模化と住宅近接で「迷惑施設」扱い

    千葉県流山市のデータセンター(DC)の建設計画が、地域住民の反対で頓挫した。かつてDCは都心部の商業地域や工業地域に建てられることが多かった。ところが近年は大規模DCが住宅のある郊外地域に作られるようになったことで、住民から「迷惑施設」扱いされている。立地に細心の注意を払わなければ、今後もDC建設は頓挫しかねない。 千葉県流山市:第一種住居地域だった土地に大型DCの建設計画 2023年12月に頓挫したのは、東京都渋谷区に社を置く「流山綜合開発K」という企業が、流鉄流山線流山駅の駅前、流山市役所の目の前にある1万2877平方メートルの土地で進めていた、地上4階・地下1階建てで高さ28メートルのDC建設計画だ。流山綜合開発KはこのDC開発のために設立した特定目的会社だ。 開発区域はもともと「飛地山」と呼ばれていた場所で、ある企業の保養所が建てられ、山は樹木に覆われていた。2018年ごろにマン

    データセンター建設が住民の反対で頓挫、大規模化と住宅近接で「迷惑施設」扱い
  • ニュース雑談サイト「スラド」が更新停止、育ての親である佐渡氏が語る舞台裏

    コンピューターやオープンソースに関するニュースをネタに、様々なユーザーが意見を書き込む掲示板サイト「スラド」。「アレゲなニュースと雑談サイト」という印象的なキャッチフレーズを見たことがある人も多いだろう。 このスラドが2024年1月31日をもって更新を停止した。当初はこの日にサービスを停止するとアナウンスされていたが、方針が変更され、サーバー自体はまだ動いている。更新を停止して受け入れ先を募集しているという。 スラドはもともと、米国の掲示板サイト「Slashdot」を日向けにローカライズした「スラッシュドットジャパン」として2001年に始まった。その誕生から2020年まで同サービスを運営してきた「育ての親」といえるのが、オープンソースコミュニティーの有名人である佐渡秀治氏だ。「スラドが止まるなら、佐渡氏に話を聞くしかないだろう」と思い、取材をお願いした。 自分で会社をつくって事業を引き継

    ニュース雑談サイト「スラド」が更新停止、育ての親である佐渡氏が語る舞台裏
  • 国産「小さいLLM」が2024年春に相次ぎ登場、NECとNTTが見いだした2つの勝ち筋

    国内大手ITベンダーが2024年、ついに大規模言語モデル(Large Language Models:LLM)サービスの提供を始める。NTTは2024年3月に「tsuzumi(つづみ)」を、NECは2024年春ごろに「cotomi(コトミ)」をそれぞれ提供する予定だ。さらにソフトバンクも2024年内にLLMを開発するとしている。 NTTNECが提供する国産LLMはいずれも、「大規模」言語モデルとはいえ米OpenAI(オープンAI)の「GPT」などに比べるとコンパクトにつくられている。実はこの規模を選んだことこそが、2社それぞれの見いだした勝ち筋でもある。果たして2社は「GPT1強」とも言える市場に変化を起こせるか。国内勢と海外勢の違いをひもときながら、2社の狙いを見ていこう。 「大規模」だけど「小さい」国産LLM これまでGPTをはじめとするTransformerベースのLLMは、パラメ

    国産「小さいLLM」が2024年春に相次ぎ登場、NECとNTTが見いだした2つの勝ち筋
  • 実は実用性も十分、機械学習の基礎である「最小二乗法」を極める

    機械学習の最も基礎的な手法が最小二乗法だ。この特集では、Pythonで最小二乗法のプログラムを実装することで、その仕組みを学んでいく。 最小二乗法は機械学習の中でも、最も基礎的な手法です。基礎的でありながら実用性も十分に高いので、様々な「予測」に用いることができます。また、視覚化による理解がしやすいので、機械学習の初学者が最初に学ぶ手法として最適と言えます。 視覚的に理解する 最小二乗法は、図1の2枚のグラフで直感的にわかるでしょう。 図1の左にあるグラフには、データを表す青い点が複数あります。個々のデータは、(8, 820)や(36, 1720)といった2つの値の組み合わせです。2つの値の組み合わせなので、横軸と縦軸のグラフにデータを配置できます。 ここで、「すべてのデータの傾向をうまく反映する1の直線を描いてみよう」というのが最も基的な最小二乗法です。描いた直線が、図1の右にあるグ

    実は実用性も十分、機械学習の基礎である「最小二乗法」を極める
  • 定番サーバー「1U2ソケット」に迫る危機、液冷方式は熱問題の解決策になるか

    ラックマウントのサーバーといえば高さが1U(44.45mm)でCPUを2個搭載する「1U2ソケット」が日では長年の定番だ。そんな人気商品がまもなく、定番ではなくなる可能性がある。原因は消費電力の増大に伴う「熱」の問題だ。 情報システムにとって絶対に欠かせない存在であるサーバーの「新常識」を紹介する特集。第1回はGPU(画像処理半導体)サーバーの台頭や、サーバーCPUのコアが最大128個まで増加している現状を取り上げた。第2回はGPUサーバーの台頭やCPUコア数の増大に伴って深刻化する、サーバーの消費電力や熱の問題に関する新常識を取り上げる。

    定番サーバー「1U2ソケット」に迫る危機、液冷方式は熱問題の解決策になるか
  • 「AIをどう習得したのか教えて」と大募集し、技術者から集まった記事49本を紹介

    日経 xTECH内に人工知能AI)専門チャネル「ビジネスAI」を2019年10月に立ち上げたのを機に、知識共有サイト「Qiita」上でAI機械学習の記事を同年12月に募集したところ、49もの記事が集まった。投稿いただいた皆さん、ありがとうございました。 今回、ビジネスAIの編集担当として私が設定した「お題」は以下の3つ。各テーマについて日経 xTECHがQiitaアドベントカレンダーのスポンサーとなり、2019年12月1日~25日まで1日1ずつ記事を募集した。 AI道場「Kaggle」への道 機械学習をどう学んだか 機械学習ツールを掘り下げる この結果、機械学習を独習するお薦めの書籍やサービス、Kaggleなどの機械学習コンペに入門する方法など、AI機械学習に興味があるエンジニアにとって大いに参考になる記事が集まった。投稿者の属性についても「ゴリゴリの文系」や「おじさんSE」「中

    「AIをどう習得したのか教えて」と大募集し、技術者から集まった記事49本を紹介
  • 1