タグ

ブックマーク / yaneuraou.yaneu.com (9)

  • Winnyの金子さんのED法について | やねうら王 公式サイト

    Winnyの金子勇さんが考案された機械学習アルゴリズムED法を再現して実装した人がいていま話題になっている。 『Winny』の金子勇さんの失われたED法を求めて…いたら見つかりました https://qiita.com/kanekanekaneko/items/901ee2837401750dfdad いまから書くことは私の記憶頼りなので間違ってたらコメント欄で教えて欲しい。 1998年ごろだと思うのだが、私はWinnyの金子勇さんのホームページの熱心な読者だった。(ページも全部保存してたので私のHDDを漁れば出てくると思うが、すぐには出せない。) Winnyのβ版が発表されたのが2002年なのでそれよりはずいぶん前である。 当時、金子さんはNekoFightという3D格闘ゲームを公開されていた。そのゲームには、自動的に対戦から学習するAIが搭載されていた。 当時の金子さんのホームページの

    fujihiro0
    fujihiro0 2024/04/22
  • 角換りは終わったのかについて1万文字程度で | やねうら王 公式サイト

    先月のゴールデンウィークに行われた第33回世界コンピュータ将棋選手権(WCSC33)で弊やねうら王チームが準優勝したあと(この準優勝は当に準優勝であって、ビールにおつまみで乾杯するという意味ではない)、角換りという戦型について以下のツイートをした。 角交換と言う戦型が終わった。 1886局面の指し手を覚えるだけで先手側は公開されてる水匠(探索局面数は1億までの任意)に対して評価値+300に出来ることが証明された。 大会で上位のソフトは+300から逆転は97%ぐらいありえないので(手数で引分はある)つまりは将棋AIの世界では角交換の後手は必敗。 — やねうら王 (@yaneuraou) May 8, 2023 この前者のツイートにはインプレッションが172万もあり、Yahooニュースや朝日新聞デジタルなど多くのメディアで取り上げられた。 AIで角換わりが終わった? 藤井聡太竜王「こちらの立

  • WCSC29、やねうら王優勝しました! | やねうら王 公式サイト

    第29回世界コンピュータ将棋選手権(WCSC29)で、『やねうら王 with お多福ラボ2019』は優勝しました。応援してくださった皆様、ありがとうございます。 手短にいくつか印象に残った試合と簡単な感想を書いておきます。 Qhapaq戦 Qhapaqはこちらが指し手を思考している最中に相手の指し手を別のPCで予測して、それに対するponderの指し手を探索する『Pre-ponder』という隠し球を実装しているそうでした。 QDMのクラスタはmultiponderベースだったのですが独自実装のpreponderを加えることで相手の持ち時間の120%を使えるという謎の効率化に成功しました。 — Ryoto_Sawada☀Qhapaq (@Qhapaq_49) May 5, 2019 そこで、Qhapaq戦については、SlowMover(序盤重視率)=67にして、序盤の思考時間を減らして終盤に

    fujihiro0
    fujihiro0 2019/05/06
    天才すぎ。
  • フロッピーディスクに収まる評価関数バイナリ公開しました | やねうら王 公式サイト

    NNUE評価関数は、ネットワーク構成を簡単にカスタマイズできるようになっている。 そこで、入力をK(玉のいる升)とP(どの升にどの駒がいるかに対応する値)だけにして(81升 + 1629通り = 1710)、hidden層の1層目を256×2、2層目・3層目を32にして学習させた。(K-P-256-32-32) NNUEを知らない人のために書くと、各層は全結合。 ※ 補足 : ニューラルネットの入力は、駒が存在するところを1、存在しないところを0とした1710次元のベクトル。 教師はdepth 8で生成した10億局面から学習させてみたところ、elmo – R30程度になった。 ファイルサイズは873KB。(zipで圧縮して400KB程度) 教師をもう少し深いdepthで生成すれば、まだ強くなるはず。 とりあえず公開しておいた。 https://github.com/yaneurao/Yan

    fujihiro0
    fujihiro0 2019/01/15
    シンプル過ぎる!ニューラルネットのポテンシャルすごい!
  • コンピュータ将棋プログラマが白旗を上げ始めたようです。 | やねうら王 公式サイト

    コンピュータ囲碁の世界では、長きに亘り良い評価関数を設計できずに苦心していました。評価関数というのは、人間で言うと大局観に当たる部分です。この部分をうまく設計するのが強い囲碁ソフトを作る上で必要不可欠なのですが、それは職人のような作業だと言われていました。 そのあとAlphaZeroが現れたことにより、評価関数は人間が設計したものより、ニューラルネットワーク(以下NNと記す)のほうがうまく表現できることが証明されました。このことは、コンピュータ囲碁プログラマの敗北であると同時に新たな時代の幕開けでした。 一方、コンピュータ将棋の世界は少し様相が異なりました。コンピュータ将棋では、2005年にBonanza6が取り入れた、王様とそれ以外の任意2駒といういわゆる三駒関係(KPP)を10年以上使ってきました。途中でNDF[2014]が手番を入れてKPPT(Tは手番ではなくTurnのT)型に進化し

    fujihiro0
    fujihiro0 2018/12/27
    これ以上強くしてもプロ将棋にすら無意味なレベルに到達すると商業的に将棋AI開発は終わりを迎える。
  • relmoの世界 | やねうら王 公式サイト

    Q.relmo(リルモ)とは何ですか? A.リゼロ評価関数とelmo(WCSC27)の評価関数を1:1でブレンドしたものです。rezero + elmo = relmo。 Q.ブレンドとは何ですか? A.やねうら王のキメラ化コマンド”test evalmerge”で2つの評価関数を合成することです。ダビスタの世界観からするとブリード(交配)と言うほうがそれっぽいかも…。 Q.relmoはelmo(WCSC27)より強いのですか? A.relmo8ですでにelmo(WCSC27)より強いです。 Q.relmo8とは? A.リゼロ評価関数epoch8とelmo(WCSC27)を1:1でブレンドしたものをrelmo8と呼んでいます。 Q.何故強いのですか? A.リゼロ評価関数はeval_limitが大きいため終盤に出現する形はたくさん学習していますが、序盤は定跡を用いず、かつランダムムーブを多用

    fujihiro0
    fujihiro0 2017/07/05
    マージすると都合よく良いところだけ合わさるなんてことはないので、なんとなく単に学習に改良の余地があることを意味しているように思う。
  • 人間の棋譜を用いずに評価関数の学習に成功 | やねうら王 公式サイト

    今回、新たに評価関数をゼロベクトルから学習させた。elmo絞りを使うと意外と簡単にApery(WCSC26)相当の棋力を持つ評価関数にまで出来るようだ。追試できるように記事の前半に手順を記しておく。また、記事の後半には何回目のelmo絞りでどの程度の強さであったかも示す。 elmo絞りを知らない人のために簡単に説明すると、今回、将棋ソフトが人間の棋譜を用いずに勝率の高い形を強化学習でソフト自らが自動的に覚えたということである。今回、1回に生成している教師の数は5億局面。対局回数で言うと400万局程度であろうか。それだけの対局を終局までこなすことで、どういう駒の位置関係だと勝ちやすいのかを学習したということだ。 私は以前、elmo絞りを用いずにある程度の強さまでは到達出来たのだが、計算資源を湯水の如く消費するので途中で断念してしまった。今回はそのリベンジである。題して「Re : ゼロから始め

    fujihiro0
    fujihiro0 2017/06/12
    AlphaGoのように人類には理解できない領域に到達して欲しい。ところで、これは強化学習と呼べるのか。
  • 電王トーナメントを終えてその2 | やねうら王 公式サイト

    前回の続き。感想を少し書いておきます。 SilverBulletの作者さんが@ITのライターをされているようで記事が上がってました。 【76】コンピュータ将棋ソフト開発者になってわかったこと http://el.jibun.atmarkit.co.jp/noriwo_t/2015/11/post-e9e4.html Σヽ(`д´;)ノ うおおおお! 俺は天才を通り越してバケモノだったのか…。 https://t.co/rH1MzERvzy — やねうら王 (@yaneuraou) November 26, 2015 今回の電王トーナメントで印象に残っているのは、超やねうら王 vs Ponanza戦。 「いまの(超やねうら王の)角あがり、Ponanzaは悪いと言ってま~す!」 Ponanzaの山くんが私のところに来て、そう言った。超やねうら王はこの局面、互角と見ている。それどころか、そこか

    fujihiro0
    fujihiro0 2015/12/05
    本気だした。『来年は私が天才(バケモノ?)であるところを皆様にお見せできればと思っています。』
  • ひまうら王実験結果その4 | やねうら王 公式サイト

    前回の続き。 教師なし学習の実験に取り組んでいた、ひまうら王、ひようら王(ひよこ将棋)より有意にかなり強くなったので、floodgateに放流しておきます。明後日ぐらいにバイナリ公開します。 — やねうら王 (@yaneuraou) December 3, 2015 前回、ひようら王のほうがひまうら王よりnpsが高いため、駒得のみの評価関数(ひようら王)のくせに、なかなかそれを超えられないという話を書きました。 ところが、ひようら王同士の自己対戦を1手1~3秒1スレッド6並列×3PCで行なって、棋譜を2000局ほど作り、それで学習させるだけでなんとひようら王と同等か少し強くぐらいの強さになったわけですよ。これにはびっくり! 棋譜2000局でこの強さになるならば、棋譜を増やせばまだまだ強くなることは経験的にわかっています。 しかし棋譜を増やすにしても強い棋力で指された棋譜のほうが好ましいです

    fujihiro0
    fujihiro0 2015/12/04
    棋士の棋譜データなしでの学習を「教師なし学習」と呼ぶのはAI将棋界では普通なのか?これは誤解を招く。 ひまうら王実験結果その4 | やねうら王 公式サイト
  • 1