タグ

関連タグで絞り込む (219)

タグの絞り込みを解除

*gameに関するsh19910711のブックマーク (730)

  • カードゲームの強化学習 - Qiita

    はじめに よく知られる碁の強化学習は「Alpha Go」があり、将棋やチェスにも対応した強化学習は「AlphaZero」とか「MuZero」がある。 オセロAIDeepLearning的立ち位置からやられる事がある。(評価関数的AIの場合もある) ポーカー(テキサスホールデム)の強化学習は「Pluribus」、麻雀の強化学習は「Suphx」がある。 一方、コンピュータゲームではAtari(70,80年代のビデオゲーム機)のゲームをやるモデルに「Agent57」、「MuZero」、「R2D2」等がある。また、マリオの強化学習としてDQNのチュートリアルコードがあり、比較的よくやられている。その他、強化学習がやられるゲームとしては動画からの学習の題材としてMinecraft、starcraft2の「AlphaStar」などがあるらしい。 しかし、TCG(トレーディングカードゲーム)の強化学習

    カードゲームの強化学習 - Qiita
    sh19910711
    sh19910711 2024/05/13
    "マリオだと入力データが(4,84,84)なのでstrideで画像サイズを減らして演算量を減らすメリットがある / 6種類のカードから成る簡単な環境であればDQN学習でもカードゲームのプレイが出来ているように見える" 2023
  • 不正検知を可能とする弱教師あり学習手法「DevNet」の紹介 〜膨大なデータに潜む異常を最小限のラベリングで見つける技術〜

    sh19910711
    sh19910711 2024/05/11
    "不正対策の難しさ: 不正かどうかの判断には文脈を考慮する必要がある + 一回ならまぐれかもしれない / 考慮しなければいけないことが時間と共に変化 / DevNet: 未知のデータは正常とみなして学習" arXiv:1911.08623 2021
  • 「斬新さ」から考えるゲーム開発 unity1week online共有会 #1

    sh19910711
    sh19910711 2024/05/09
    "絵に描けるものはゲームにしやすい / アイデア: たくさんストック + 面白く出来ないなら捨てる + 考え直す / 過程をアレンジ: 入力と結果の間に注目 + 例)ボタンを押すと「何かが起きて」ジャンプする" 2020
  • 強化学習でスーパーマリオをクリアする - Qiita

    https://vigne-cla.com/3-4/ の記事によると人口知能の学習に使えるスーパーマリオの環境は Kautenjaさんが作成したgym_super_mario_brosと ppaquetteさんが作成したppaquette_gym_super_mario がある。 ここではppaquette_gym_super_marioを使用している https://qiita.com/tsunaki/items/ec2556dc147c6d263b9d のコードを使用させていただき、スーパーマリオの強化学習を進めていきます。 (tsunaki様、こちらのページありがとうございます) 基情報 環境はgymをベースにしている。 gymの情報: https://github.com/openai/gym/blob/master/README.rst 画面データはもともと256x224でre

    強化学習でスーパーマリオをクリアする - Qiita
    sh19910711
    sh19910711 2024/05/09
    "ppaquette_gym_super_mario: 環境はgymをベース + 画面を縦13個、横16個のtileという単位に直して処理している / 試行ごとにランダムの割合epsを1から少しずつ減らしていく / 試行は2000回 + epsが0.5くらいのときにめでたくゴール" 2019
  • 感想「深層強化学習による東方AI」 – @knok blog

    能登さんが発行された技術同人誌、「深層強化学習による東方AI」のダウンロード版を入手したので読みました。BoothとGumroadで販売されているおり、特に理由はありませんがGumroadで購入しました。 第13回 博麗神社例大祭で頒布した『深層強化学習による東方AI』のダウンロード版をBooth https://t.co/ZysBlu7LY4 およびGumroad https://t.co/HtgRa44sr6 にて販売しています. pic.twitter.com/7rDT2qG9uq — 何もわからん (@ntddk) 2016年5月8日 東方紺珠伝というシューティングゲームを、深層機械学習によってクリアさせようというものです。 この種の話でまず思い浮かぶのが、八重樫さんによるvArashiです。Linux Conference 2002にて発表された資料(PDF)もあります。今にな

    sh19910711
    sh19910711 2024/05/09
    "大昔のログインで実際にシューティングプレイヤーへアイトラッキングデバイスを装着させた記事があった / 不慣れなプレイヤーは主に自機を中心に見ているが、上級プレイヤーは自機の少し先を見ている傾向" 2016
  • VFX Graphの気になるアップデートを軽率に紹介したい/wanna-introduce-vfx-graph-updates

    sh19910711
    sh19910711 2024/05/07
    "VFX Graph: Shurikenに代わる新しいパーティクルシステム + 表現力の高いパーティクルを簡単にハイパフォーマンスで作ることができる / SDF: 点から形状への距離と方向 + 3Dテクスチャとして扱われる + 以前はHoudiniで作成" 2021
  • ゲームボーイアドバンスの外装と液晶を交換した - 帷子川書房日誌

    かなり前に友人からジャンクのGBAを譲ってもらったのでそれの液晶交換をしたいなーと思ったりしていました。 なんでGBAかというと、SPとくらべて折りたたみ部分がないため難易度が低めなのと、GBもGBCも動くので使えるソフトウェアのプールが広いからです。 いいですよねGBC。世代なのもあって好きなのです。中古だとゲームも安いので発掘の楽しみもある。 これは体が最終的にこうなる物語。 改造対象はこれ。ミルキーがGBAっぽくていいですね。 バックライトがないため、いま見るとかなり暗いです。 はじめはいろいろ事前調査で相場を調べたりこちらのサイトを熟読したり。 ゲームボーイのカスタムパーツを海外から購入する - 酢ろぐ! blog.ch3cooh.jp ここを見て Handheld Legend から買おうかとアカウントまで作ったのですが、どうにもこうにも欲しいシェルがない。 そんな中、GBCの

    ゲームボーイアドバンスの外装と液晶を交換した - 帷子川書房日誌
    sh19910711
    sh19910711 2024/05/06
    "GBAをバラしての本体側基板と液晶を接続したところ無事に表示されたので一安心。かなりテンションあがる / 画面が大きくなったり液晶の性能が上がった分、ドットも目立つようになりました。これもまた良い感じ" 2021
  • 【Unity ML-Agents】 Self-Play Reinforcement Learningで対戦ゲームのAIを作ってみた - Qiita

    Unity ML-Agents】 Self-Play Reinforcement Learningで対戦ゲームAIを作ってみたUnity強化学習ReinforcementLearningML-Agents はじめに Atari 2600 Gamesの攻略を発端として有名となった強化学習ですが,ここ数年で プレイヤーが複数人いるゲームのための強化学習の研究も盛んに行われています.Self-Play Reinforcement Learning (Self-Play RL) はマルチプレイのゲームの学習にしばしば用いられる学習方法であり,囲碁やDota 2のAI開発に使われたことで注目を浴びました. 今回は,Unityによる自作の対戦ゲームAIをSelf-Play RLによって作成してみようと思います. Self-Play RLはエージェント (プレイヤ) が複数人いるゲームの戦略を学習

    【Unity ML-Agents】 Self-Play Reinforcement Learningで対戦ゲームのAIを作ってみた - Qiita
    sh19910711
    sh19910711 2024/05/06
    "Self-Play RL: 自身の戦略のコピーを作成し,それを相手として学習をすすめる / Firoiu: 大乱闘スマッシュブラザーズDXにおいてトップランカーに匹敵" arXiv:1702.06230 2019
  • Unityで点だけのメッシュを動的に生成する - Qiita

    点の生成 3Dの編集モードで新規にプロジェクトを作成するか、新規シーンを作成してから、3D Object→Cubeを配置します。座標は(0,0,0)にしておくと素直にカメラに映ります。 作成したCubeに以下の内容のスクリプトをアタッチします。 using UnityEngine; public class CreateSimplePointMesh : MonoBehaviour { void Start() { int numPoints = 60000; // 点の個数 float r = 1.0f; // 半径 Mesh meshSurface = CreateSimpleSurfacePointMesh(numPoints, r); GetComponent<MeshFilter>().mesh = meshSurface; } /// <summary> /// 球の表面にラン

    Unityで点だけのメッシュを動的に生成する - Qiita
    sh19910711
    sh19910711 2024/05/05
    "旧来のUnityでは65535頂点を超えるメッシュを扱えなかったのです(過去形) / Unity2017.3からはこの制約が無くなった / Post Processing StackのBloomを使うと、光っているように見せることもできます" 2018
  • 【Nintendo Switch】格安マイコンCH552でポケモンの自動化をしてみたい話 - チラ裏雑記帳

    この記事は、Pokémon Past Generation Advent Calendar 2022 12月25日の記事です。 ポケモンの自動化と言っていますが、ポケモンの話は殆どしていません...。 adventar.org 概要 先月発売されたポケットモンスタースカーレット/バイオレット(以下SV)において、一部の海外勢によって早速解析が行われたものの、とある理由により乱数調整が基的にほぼ不可能であることが確認されました。SVの乱数調整についてですが、レイドも含めポケモンの生成処理全てにCSPRNGによる初期化が入っているらしいです そんな感じなのでまあ多分無理ですね— ぼんじり(17) (@_3z8) 2022年11月19日 www.reddit.com まあ正直こうなることはある程度予想できたので、SVでは自動化による作業効率化が流行るのかな~と発売前から考えていました。 PC

    【Nintendo Switch】格安マイコンCH552でポケモンの自動化をしてみたい話 - チラ裏雑記帳
    sh19910711
    sh19910711 2024/05/03
    "RP2040: 等速で動作するGBエミュレータ等も作れるくらいには高性能 / FT232RL: Amazonで販売されているシリアル変換モジュールでこれが採用されているものはほぼ偽物が使用されていると考えた方が良い" 2022
  • UE4の物理アセットと自作アニメーションブループリントノードでキャラクターの物理挙動をいい感じにする - Qiita

    概要 この記事では、「UE4の物理アセットを使い、アニメーションブループリントノードを自作することで、キャラクターの物理挙動を実装する方法」について記述しています。 物理シミュレーション対象のシェイプとコリジョンは、物理アセットで設定します。 キャラクターの物理、いわゆる骨物理に話を限定します。 先に結果を見せると、この記事の中ではこのようなことをやります。 遅延揺れによる髪の揺れ 階段を揺れながら降りるスライム 背後からグレイマンに襲いかかり肩にのってしまうスライム 背景 物理シミュレーションをカスタマイズしたいと思ったことはないでしょうか。 剛体のパラメータを設定するとか、物理エンジンのパラメータを設定するとか、コンストレイントを設定するという話ではありません。 シミュレーションの内部アルゴリズムをカスタマイズしたいと思ったことはないでしょうか。 僕はたまにあります。 物理エンジンにと

    UE4の物理アセットと自作アニメーションブループリントノードでキャラクターの物理挙動をいい感じにする - Qiita
    sh19910711
    sh19910711 2024/05/03
    "UE4に使われているNVIDIA PhysXは、基本的に剛体向け / 柔体(弾性体、粘性体)と流体向けのシミュレーションは、NVIDIA GameWorksのシリーズの中では、FlexやNvClothやFlowなど別のSDKに分離されています" 2020
  • Unity×レイマーチングによる映像制作の実践手法 / KLab Tech Meetup 4

    AWS CDKで学ぶGoFデザインパターン�〜IaCにもコード設計〜 / aws dev day cdk gof design patterns

    Unity×レイマーチングによる映像制作の実践手法 / KLab Tech Meetup 4
    sh19910711
    sh19910711 2024/05/03
    "規則的な動きはシェーダーが得意 / レイマーチング: 距離関数という数式で形状を定義 / 映像を構成する3要素: 形状 + 質感 + 演出 / IFS: 自身の縮小コピーを重ね合わせることでフラクタル図形をつくるテクニック" 2019
  • コンピュータ将棋でDeep Learningごっこしてみたまとめ - Qiita

    コンピュータ将棋を題材にdeepなニューラルネットを自作して遊んでみた結果得られたノウハウのメモ。 Deep Learningはfeature engineeringしてくれない まあ当たり前の話ですが、「画像や囲碁にDCNNというモデルがとても効果的だった」+「DCNNへの入力は従来より雑なfeature (ほぼ生の情報やそれ+α)で大丈夫だった」というだけの話で、feature engineeringやネットワークの設計は結局のところ問題に特化して考えないといけないよね、という話。 少なくとも将棋の駒の配置だけを入力にして全結合層をたくさん並べただけでは、現実的な中間層の大きさでは全然予測性能が出ませんでした。 将棋の場合線形性が強いのでdeepである必要はあんまり無さそうに思えます。 全結合よりはDCNNの方がちょっとマシっぽいですが、それにしても3駒に匹敵するようなことにはならなそ

    コンピュータ将棋でDeep Learningごっこしてみたまとめ - Qiita
    sh19910711
    sh19910711 2024/05/03
    "深いネットワークでバイアス項無しだとだいぶ勾配が伝搬しにくくなる / 中間層のユニット数を100倍くらい増やすと、多くの場合、学習率がそのままでは大きすぎ / 学習率に限らず初期値も分散を合計1にするのがよい" 2016
  • Amazon GameLift Testing Toolkitを使ってプレイヤー接続テストやマッチメイキングシミュレーションを手軽に行う | DevelopersIO

    Amazon GameLift Testing Toolkitを使ってプレイヤー接続テストやマッチメイキングシミュレーションを手軽に行う こんにちは、ゲームソリューション部の入井です。 今回は、AWS公式が配布しているAmazon GameLift Testing Toolkitについて、実際に使ってみてどのようなことができるのかを確認しました。 Amazon GameLift Testing Toolkitとは OSSとして公開されているツールで、その名の通りAmazon GameLiftのテストを行うためのものです。 aws-samples/amazon-gamelift-testing-toolkit: Amazon GameLift Testing Toolkit Amazon GameLiftはマルチプレイヤー用のサーバをAWS上で構築するためのサービスですが、高機能な分運用にあ

    Amazon GameLift Testing Toolkitを使ってプレイヤー接続テストやマッチメイキングシミュレーションを手軽に行う | DevelopersIO
    sh19910711
    sh19910711 2024/05/02
    "GameLift: 高機能な分運用にあたって管理しなければいけない要素が多く + テストの実施にも手間 / 仮想プレイヤーを使ったGameLiftのマッチング~セッション参加までの動作確認 + Fargateタスクの形で仮想プレイヤーを作成"
  • Pythonを使用して数値標高モデル(DEM)からMinecraftの地形を作成する - Qiita

    はじめに この記事では、Pythonのライブラリであるanvil-parserを使用して、数値標高モデル(DEM)からMinecraftJava版)のワールドデータを作成する方法を紹介します。この方法により、実世界の地形をMinecraftで再現することが可能になります。 DEMデータをダウンロードする まずは基盤地図情報ダウンロードサイトよりDEMのデータをダウンロードします。 今回は岐阜県岐阜市のこちらのメッシュ(533616)を使います。 ダウンロードしたDEMはそのままでは利用できないので、QGISのQuickDEM4JPプラグインを使用してtiffファイルに変換します。 詳しい使い方はこちらの記事を参照してください。 「国土地理院の標高データ(DEM)をQGIS上でサクッとGeoTIFFを作って可視化するプラグインを公開しました!(Terrain RGBもあるよ)」 QGIS

    Pythonを使用して数値標高モデル(DEM)からMinecraftの地形を作成する - Qiita
    sh19910711
    sh19910711 2024/04/30
    "数値標高モデル(DEM)からMinecraftのワールドデータを作成 / マインクラフトの世界は設定上1ブロック=1m + これに合わせるため、gdalを使用して、DEMのラスター解像度を1m x 1mに変換" 2023
  • PBDベースで揺れモノ用の物理エンジンを実装した話 - Qiita

    概要 記事はCluster,Inc. Advent Calendar 2017の6日目の記事です。 Unityちゃん付属のSpringBoneが微妙に使いにくかったため、使いやすくなるようにガッツリと作り直してみました。 左がUnityちゃん付属の物理エンジンで、右が今回作ったものです。 従来のものとの違い 改善された点 重力の影響を受けるようになった 1クラスで完結するようになり、セットアップが簡単になった ボーンの軸方向を意識せずに済むようになった 劣化した点 少し重くなった 細かい調整ができなくなった 使い方 物理演算したいGameObjectに Pbd Spring Boneをアタッチし、揺れモノの起点となるボーンを指定するだけで動きます。 仕組み 基的な考え方はPosition Based Dynamicsと呼ばれるものです。 GameObjectそれぞれの各点を質点と見なし

    PBDベースで揺れモノ用の物理エンジンを実装した話 - Qiita
    sh19910711
    sh19910711 2024/04/30
    "Position Based Dynamicsと呼ばれるもの: 前回の位置と現在の位置から速度を求め、重力と減衰、形を維持しようとする力を加え + 求めた速度を元に位置を更新 + めり込んでいた場合、めり込まない位置まで移動" 2017
  • 格ゲーで人を殴れ - カエサル 文章 書く

    格ゲーで人を殴れ。ボタンを叩いて危害を加え、対戦相手の自由を侵害しろ。 今回つらつらと書いていくのは、格ゲー、つまり対戦格闘ゲームのことだ。ゲーム画面の上の方に体力を示すバーがあり、キャラクターを操って相手にダメージを与えて倒すことが目的のゲームのことだ。私は一桁の年齢の頃から格ゲーをプレイしており、人生の半分以上を格闘ゲームと共に歩んできたことになる。しかし誤解するといけないので先に言っておくが、別段私は格ゲーの強いプレイヤーという訳ではない。むしろ下手だ。私は格ゲーをしていて、喜んだり楽しんだりしている時間よりも、対戦相手にギタギタに滅ぼされ怒りに打ち震え顔を真っ赤にしキレている時間の方が長いだろう。では何故長いことプレイしてもちぃとも上手くならない私が格ゲーを続けているかというと、それは格ゲーには魅力があるからだ。 そう、魅力だ。ちゃおちゅーるが数多のネコに取って魅力的なように、格闘

    格ゲーで人を殴れ - カエサル 文章 書く
    sh19910711
    sh19910711 2024/04/29
    "あなたの入力に対し返ってくる反応には人間の数だけ可能性がある / そこそこの数のキャラクター選択があり、そこでもう対戦相手による反応が違いことが保証され、即ちゲーム体験を新鮮なものにする" 2018
  • AirtestとPocoとOpenSTFによるUnity製スマートフォン向けゲームの実機自動テスト環境構築とその利用方法

    「CEDEC 2020」の発表資料です。 http://cedec.cesa.or.jp/2020/session/detail/s5e82a55322244

    AirtestとPocoとOpenSTFによるUnity製スマートフォン向けゲームの実機自動テスト環境構築とその利用方法
    sh19910711
    sh19910711 2024/04/28
    "Airtest: 画像認識によるテストコードを記述できる環境 / Poco: Airtestのライブラリ + Unityや各種ゲームフレームワークのUI情報を取得し、Python上で操作 / DeviceFarmer: 元々はCyberAgent社で開発 + ブラウザごしに実機を操作" 2020
  • ML-Agentsで模倣学習(GAIL)を取り入れた強化学習を行う - Qiita

    要約 コンセプト:報酬がスパースな環境だとエージェントが報酬に辿り着けず、学習が進まない・・ので模倣学習で人間が手を見せる UnityのML-Agentsで強化学習+模倣学習(GAIL)をする手順の紹介 はじめに Unityでは、ML-Agentsというライブラリを使うことで機械学習を行うことができます。ML-Agentsは特に強化学習(Reinforcement learning)を容易に行うことが可能であり、Unityエディタ上で容易に環境を構築、スクリプトで報酬の設定等を行うこともできます。 ですが、ゲームにおいて強化学習でうまく挙動を学習させることが難しい場合があります。 強化学習とその課題 強化学習は、エージェントの一連の行動の結果として報酬を与えることで学習が進行します。しかし、報酬がスパースな(少ない)環境では、エージェントが報酬となる行動に辿り着くことが難しいため、エージ

    ML-Agentsで模倣学習(GAIL)を取り入れた強化学習を行う - Qiita
    sh19910711
    sh19910711 2024/04/28
    "人間が報酬にたどり着くような行動を模倣学習でエージェントに学習させる / ML-Agentsでは現在BCとGAILの2種類の模倣学習をサポート / GAIL: デモンストレーションの数が少ない場合でも効果的 + 事前学習が可能" 2019
  • WebHID APIを使ってJoy-ConとChromeを簡単コネクト - Qiita

    Joy-ConとChromeがツナガル こんな感じでJoy-Conをクネクネ動かしたりスティックをグリグリしたりすると、Chromeに表示されたJoy-Conが連動して動きます。Joy-Conって、普段はNintendo Switchゲームする時に使うコントローラーなので、こうしてブラウザのChromeと連動して動くだけでワクワクします。 このアプリはGoogleエンジニアの方が作られたもので、以下のGitHubで公開されています。 https://tomayac.github.io/joy-con-webhid/demo/ https://github.com/tomayac/joy-con-webhid どうやっているの? WebHID APIという技術が使われています。 このAPIを使うことで、Webアプリケーションからニンテンドースイッチのジョイコンやプレイステーションのデュア

    WebHID APIを使ってJoy-ConとChromeを簡単コネクト - Qiita
    sh19910711
    sh19910711 2024/04/26
    "WebHID API: キーボードやマウス以外のさまざまなデバイスを制御 + Chrome89ではWebHIDがデフォルトで有効 / Joy-Conをクネクネ動かしたりスティックをグリグリしたりすると、Chromeに表示されたJoy-Conが連動" 2021