並び順

ブックマーク数

期間指定

  • から
  • まで

161 - 200 件 / 200件

新着順 人気順

マイニングの検索結果161 - 200 件 / 200件

  • コインハイブ事件、逆転有罪 罰金10万円…東京高裁判決 - 弁護士ドットコムニュース

    自身のウェブサイト上に他人のパソコンのCPUを使って仮想通貨をマイニングする「Coinhive(コインハイブ)」を保管したなどとして、不正指令電磁的記録保管の罪(通称ウイルス罪)に問われたウェブデザイナーの男性の控訴審判決が2月7日、東京高裁であった。 栃木力裁判長は、男性に無罪を言い渡した一審・横浜地裁判決を破棄し、罰金10万円の逆転有罪とした。弁護側は記者団に対し、上告する方針を明らかにした。 判決は、今回問題となったコインハイブは、ユーザーに無断でCPUを提供させて利益を得ようとするもので、「このようなプログラムの使用を一般ユーザーとして想定される者が許容しないことは明らかといえる」と反意図性を認めた。 さらに不正性についても、生じる不利益に関する表示などもされておらず、「プログラムに対する信頼保護という観点から社会的に許容すべき点は見当たらない」と判断。故意や目的も認めた。 一審は

      コインハイブ事件、逆転有罪 罰金10万円…東京高裁判決 - 弁護士ドットコムニュース
    • 「ルナルナ」のビッグデータ解析で月経周期に新事実

      「生理前になるとだるくて、やる気が出ない」「旅行中、予定外に生理が来てしまった」など、女性なら誰でも月経周期に振り回された経験を持つのでは。妊娠を望む、あるいは避妊したいといった場合にも、月経周期が問題となる。つまり、月経周期についての正しい知識や情報は、女性が「自分らしい生活や人生」を送る上で不可欠といえるが、驚くべきことに「月経周期に関する医学的な知見」は60年前からアップデートされていないのだという。 こうした背景があり、国立成育医療研究センター分子内分泌研究部室長の鳴海覚志氏、同社会医学研究部室長の森崎菜穂氏らは、女性の健康情報サービス「ルナルナ」を手掛けるエムティーアイと共同で調査研究を進め、1月23日に記者説明会を開いてその解析結果を発表した。 2000年にKDDIのau公式サイトとしてサービスを開始した「ルナルナ」。そのインストール数は、延べ1400万に上るという。アプリを使

        「ルナルナ」のビッグデータ解析で月経周期に新事実
      • CTO視点で振り返るクラシルの作り方【2000万DL突破】|大竹雅登/dely

        こんにちは。クラシルを運営する、dely CTOの大竹です。Twitterは@EntreGulssでやってます。 dely Advent Calendar 2019、最後の記事です。前回はコマース事業部エンジニアの小川くんが「~OSSから学ぶ~ MVCフレームワークの保守性がモリモリ上がるクラス設計」という記事を書きましたのでそちらも是非。」という記事を書きましたのでそちらも是非。 はじめに今月(2019年12月)、クラシルのアプリ累計DL数が2000万を突破しました。リリースから3年半での達成は、国内のC向けアプリでは最速クラスなのではと思います。 私は、2014年のdely設立の頃からCTOになり、クラシルをリリースした2016年から現在までの過程の全てに関わってきました。 この記事では、リリースから3年半で2000万DLを達成したクラシルの作り方を、"CTO視点"で振り返って書いてい

          CTO視点で振り返るクラシルの作り方【2000万DL突破】|大竹雅登/dely
        • YouTubeの推薦アルゴリズムの変遷を追う〜深層学習から強化学習まで〜

          はじめにこの記事は「eureka Advent Calendar 2019」24日目の記事です。 こんにちは、Data Analystの @pacocat です! 私はeurekaには2019年11月に入社したばかりなのですが、毎日楽しく仕事させてもらっています。最近はプロダクト開発のための定性調査の仕組みづくりを手伝ったり、事業分析や組織開発をしていたりと、様々な定量・定性データを活用してどのように事業成長に貢献できるか考える日々です。 前職ではAI PdMとして、ゲームや強化学習領域でのAI活用を推進していました(興味ある方はGDC2019での発表や各種スライド slideshare / speakerdeck をご覧ください)。直近はがっつりAIに関わっているわけではありませんが、趣味で推薦×強化学習分野のサーベイをしていたら面白い話題がたくさんあったので、それらの中からYouTub

            YouTubeの推薦アルゴリズムの変遷を追う〜深層学習から強化学習まで〜
          • 研究態度 - 愛知学院大学青木ゼミのブログ

            心理実験 再現つまずく 揺らぐ信頼、研究刷新促す声 (日経新聞2019年12月15日朝刊記事抜粋) 「つまみ食いを我慢できる子は将来成功する」「目を描いた看板を立てると犯罪が減る」――。有名な心理学の実験を検証してみると、再現できない事態が相次いでいる。望む結果が出るまで実験を繰り返したり、結果が出た後に仮説を作り替えたりする操作が容認されていた背景があるようだ。信頼を失う恐れがあり、改めようとする動きが出ている。米科学誌「サイエンス」は15年、心理学研究への信頼が揺らいでいる事態を重く見て、主要な学術誌に掲載された心理学と社会科学の100本の論文が再現できるかどうかを検証した。結果は衝撃的で、同じ結果が得られたのはわずか4割弱にとどまった。日本の代表的な心理学会誌「心理学評論」も16年、再現できない実験に関する問題を特集号として取り上げた。 心理学で再現できない研究がなぜ目立つのか。大阪

              研究態度 - 愛知学院大学青木ゼミのブログ
            • 機械学習の説明可能性(解釈性)という迷宮 - 渋谷駅前で働くデータサイエンティストのブログ

              ちょっと前に、しょうもないことを某所で放言したら思いの外拡散されてしまいました。 機械学習の説明可能性(解釈性)、大半のケースで求められているのは厳密な分類・回帰根拠ではなく受け手の「納得感」なので、特に実ビジネス上は説明可能性に長けたモデルを開発するより、納得できないお客さんを巧みに関係性構築した上で口八丁で完璧に説得できる凄腕営業ピープルを雇う方が重要— TJO (@TJO_datasci) 2019年11月23日 これ自体は与太話なので実際どうでも良い*1のですが、最近色々な研究や技術開発の進展はたまた実務家による考察などを見ていて、「機械学習の説明可能性(解釈性)というのは思った以上に複雑な迷宮だ」と感じることがままあったのでした。 ということで、今回の記事では僕のサーベイの範囲でザッと見て目についた資料などを超絶大雑把にリストアップした上で、主に実務における説明可能性とは何かとい

                機械学習の説明可能性(解釈性)という迷宮 - 渋谷駅前で働くデータサイエンティストのブログ
              • Retty データ分析チーム - 立ち上げ2年目の振り返り 〜データプラットフォーム/データ民主化/統計モデル〜 - Retty Tech Blog

                この記事はRettyアドベントカレンダー19日目の記事です。 昨日はretty-y-takaseによるプロポーザル提出は個人のモチベーションに左右されずコントロールすることが可能なのかでした。 1. はじめに こんにちは、Rettyのデータ分析チームでマネージャーをやっている平野(twitter / fb)です。 データ分析チームを去年の4月に立ち上げてから1年と9ヶ月が立ちました。1年目ではチームの意義や組織における位置づけ・分析するための環境つくりなど手広くやってきました。 1年目を振り返ると、データ分析チームとして各データアナリストがPJに貢献する体制が構築できたのと、分析するためのデータレイク層やデータマート・ダッシュボード開発など進み、組織としては最低限のデータ活用を行える土壌が整えることができたと思っています。 そのときの取り組んだ内容は去年のアドベントカレンダーで紹介してます

                  Retty データ分析チーム - 立ち上げ2年目の振り返り 〜データプラットフォーム/データ民主化/統計モデル〜 - Retty Tech Blog
                • 自作マイニングPCの作り方とパーツ選びの解説まとめ | ちもろぐ

                  2018年にマイニングバブルが弾けて以降、マイニングはオワコンに。かと思えば、コロナ渦による各国の金融緩和(金余り)の影響で2020年の終わりからまたマイニングバブルが発生中。 というわけで、本記事ではマイニングリグの組み方やパーツの選び方について簡単に解説します(3年ぶり更新)。 (公開:2018/6/1 | 更新:2021/3/1)

                    自作マイニングPCの作り方とパーツ選びの解説まとめ | ちもろぐ
                  • アプリケーションにおけるデータ不整合との戦い - blog.syfm

                    これは Aizu Advent Calendar 2019 の 15 日目の記事です。14 日目は uzimaru0000 さん、16 日目は kacky__917 さんです。 はじめに 世の中には日々たくさんの価値ある Web サービスが生まれていますが、その価値を正しく提供するにはアプリケーションが正しく動かなければなりません。 たとえばアプリケーションは適切なユーザに適切なリソースを提供しなければならず、エラーを返す際は十分に定義された仕様に沿って返し、UI 側ではユーザに適切なメッセージを表示しなければなりません。 実際のところ、これらを厳密に実現するのは非常に困難ですが、アプリケーションにはこれら以上に複雑な問題が常につきまといます。 現在の Web アプリケーションはほとんどが分散システムの一形態です。例えばクライアントとサーバや、サーバとデータベースがネットワークを介して接続

                      アプリケーションにおけるデータ不整合との戦い - blog.syfm
                    • Pythonによるファイナンス 第2版

                      さまざまな分野で威力を発揮するPythonは、ファイナンスの分野でも重要なテクノロジーとして急成長を遂げています。本書は、Pythonを使った金融工学の初歩的な基本事項からアルゴリズム取引やデリバティブ分析までカバーし、必要なプログラミング、機械学習や深層学習を利用したデータ分析、統計などについて、数理と実用面から詳しく解説します。「データ駆動型アプローチ」と「AIファーストファイナンス」を軸に、これからのファイナンスに必要な戦略と実践力を体得できることを目的とします。 目次 日本語版まえがき まえがき 第1部  Pythonとファイナンス 1章 なぜファイナンスにPythonを使うのか 1.1 プログラミング言語Python 1.1.1 Pythonの大まかな歴史 1.1.2 Pythonエコシステム 1.1.3 Pythonのユーザ層 1.1.4 科学スタック 1.2 ファイナンスにお

                        Pythonによるファイナンス 第2版
                      • プログラミングなしでもできる機械学習(3) GUIで簡単データ分析!RapidMiner(新機能編)

                        「RapidMiner」は、GUI上で簡単にデータの「可視化」「前処理」「機械学習」が行えるツールです。前回の基礎編では、データの取り込みや可視化、前処理、モデル作成などの基本的な操作方法を紹介しました。 今回は新機能編として、より簡単・便利にデータ分析を可能にする新機能や、導入に適した事例を紹介します。 Auto Model:クリック操作だけでモデルを作成・比較 基礎編では、手動で分析フローを組んでいきました。これだけでもプログラミングが不要で簡単なのですが、新機能「Auto Model」を活用すると、ウィザード的なクリック操作だけで、一連の分析フローを自動的に作成し、精度の比較まで可能にしてくれます。 機械学習にあまり詳しくない方にとって大いに役立つ機能であり、また、ある程度詳しい方にとってもモデル作成時の"あたり"をつける上で便利な機能です。 (1)学習方法の選択 では具体的な操作を

                          プログラミングなしでもできる機械学習(3) GUIで簡単データ分析!RapidMiner(新機能編)
                        • Spotifyはプレイリストにどう機械学習を活用しているのか?|みゃふのPythonプログラミング~応用編~

                          音楽配信サービス最大手のSpotify。2019年6月末時点での月間アクティブユーザー数は有料/無料を合わせ全世界で2億3千万人余り、有料ユーザーだけでも1億人超と他を大きく引き離す勢いです。複数のポッドキャスト企業、過去には競合の音楽配信サービスの買収も試みるなど、『音楽のストリーミング』に関わるあらゆるリソースを確保し続ける巨人でもあります。 さて先日記事を公開したNetflix同様、こうしたコンテンツ配信サービスにおいて開発元が日々改善に改善を重ねているのが『おすすめ機能(パーソナライズ)のアルゴリズム』です。どちらも数億人規模のユーザーそれぞれに最適な形で届ける必要があるために機械学習やディープラーニングを活用しています。 Spotifyの場合プレイリストがその対象ですね。 不思議なことに全く見たことも聴いたこともないアーティストや楽曲が突然おすすめされるSpotify。一体どんな

                            Spotifyはプレイリストにどう機械学習を活用しているのか?|みゃふのPythonプログラミング~応用編~
                          • AI道場「Kaggle」への道 by 日経 xTECH ビジネスAI①のカレンダー | Advent Calendar 2019 - Qiita

                            「日経 xTECH ビジネスAI」は、エンジニアの皆様を応援する気持ちを込めて、Advent Calendar 2019に参加させていただきます。 日経 xTECH ビジネスAI賞として、最新MacBook Pro 16インチを1名の方にプレゼントいたします。テーマを3つ用意しましたので、奮ってご参加ください! 12月中の投稿であれば過去の日付でもプレゼントの対象となります。ぜひ奮ってご参加ください。 テーマ① AI道場「Kaggle」への道 Kaggleの戦歴、面白かったKaggleコンペ、Kaggleのコンペでハイスコアを得るためのテクニック、初心者Kagglerに贈る言葉など、Kaggleに関連したテーマなら何でも。 日経 xTECH ビジネスAI賞 最新MacBook Pro 16インチ 1名 2.6GHz 6コアプロセッサ 512GBストレージ AMD Radeon Pro 53

                              AI道場「Kaggle」への道 by 日経 xTECH ビジネスAI①のカレンダー | Advent Calendar 2019 - Qiita
                            • リクナビ問題を防ぐ「秘密計算」、データ時代の本命技術を知る

                              企業が機械学習といった人工知能(AI)を活用するにはデータが重要だ。より良いサービスを提供するにはより多くのデータを収集する必要がある。多数の企業がデータを秘匿したまま持ち寄って個人のプライバシーの侵害を抑制しつつ活用できる技術が普及しそうだ。 多数の企業がデータを持ち寄ったり、一部の大企業がデータを戦略的に収集したりして新たな事業を始める動きは世界中で活発になっている。企業がデータを持ち寄って分析した最近の典型例は「リクナビ問題」だった。 リクナビ問題では、リクルートキャリアが就職情報サイト「リクナビ」を利用して就職活動をしている学生のサイト閲覧・行動履歴と、契約企業が保有する前年度の内定辞退者らの個人データを基に内定辞退の指標を販売していた。リクルートキャリアが学生らの同意を得ることなく個人データを契約企業である第三者に提供していたことや、十分な説明をせずに契約企業から委託を受けて扱っ

                                リクナビ問題を防ぐ「秘密計算」、データ時代の本命技術を知る
                              • 私がKagglerになるまでの道のり - Qiita

                                機械学習をどう学んだか by 日経 xTECH ビジネスAI② Advent Calendar 2019 1日目の記事です。今日は @kenmatsu4 が機械学習をどうやって学んできたか、有用だった本の紹介をまじえて解説してみたいと思います。初のポエム記事ですw こちらは日経 xTECHさん企画のAdvent Calendarですが、ちなみに実はワタクシ @kenmatsu4 はAI道場「Kaggle」の正体 AI道場「Kaggle」の衝撃、DeNAが人材採用の特別枠を設けた訳 の中の人だったりもします 1. 学生時代 大学では経済学部に所属していまして、統計学の先生の下で勉強しました。もう15年以上前ですw 当時データサイエンスという言葉は当然なかったですが、今、データサイエンティストとして働いているのはやはりこの時期にデータ分析に携われたおかげです。文系だったので、数学は独学で勉強し

                                  私がKagglerになるまでの道のり - Qiita
                                • プログラミングなしでもできる機械学習(2) GUIで簡単にデータ分析!RapidMiner(基礎編)

                                  マーケティングや製造現場のカイゼンの場で、データ分析の需要が高まっています。その一方で、BI(ビジネスインテリジェンス)ツールは、可視化はできても、統計分析や機械学習モデルの作成において、基礎知識やプログラミングスキルの不足が大きな壁となるケースがあります。 これに対して、今回紹介するツール「RapidMiner」は、GUI上で簡単にデータの「可視化」「前処理」「機械学習」を可能にします。今までBIツールやExcelで可視化に取り組んでいた方も、プログラミングなしで、より深いデータ分析が可能になります。 今回は、RapidMinerの基礎編として、データの取り込みや可視化、前処理、モデル作成などの基本的な操作方法を紹介します。 なお、RapidMinerは、フリーライセンスであれば1万行まで無料であり、PC(Windows/Mac)にインストールして手軽にデータ分析にトライできます。ご興味

                                    プログラミングなしでもできる機械学習(2) GUIで簡単にデータ分析!RapidMiner(基礎編)
                                  • 「因果関係」をとらえるために / To grasp causal relationship

                                    ブレインパッド社内勉強会での発表スライドを公開しました 本スライドは #OpenBP の活動の一環として公開しています https://twitter.com/search?q=%23OpenBP&src=hashtag_click #OpenBPとは→ https://note.mu/ysdyt/n/n46160f3348fe

                                      「因果関係」をとらえるために / To grasp causal relationship
                                    • プログラミングなしでもできる機械学習(1) プログラミングが不要な機械学習の代表的なツールとは?

                                      いよいよ、機械学習はPoC(Proof of Concept:概念実証)の段階から、システムへの組み込みを本格的に考える段階へと入りつつあります。それに伴い、コーディングの専門知識が不要な、「プログラミングなし」で機械学習を実現できる製品・サービスが登場しています。 本連載では、これらの製品・サービスについて解説することで、読者の方々をデータ・サイエンティストのファーストステップへとご案内します。 プログラミングレスの機械学習が登場した背景 改めて整理しますが、機械学習とは、あるデータ群をもとに学習を行い、機械が何らかのパターンを見つけ出す方法です。この機械学習の1つの手法がDeep Learningです。近年では、scikit-learnやTensorFlowなどのミドルウェアを利用することで、Pythonなどで書いたプログラムで簡単に機械学習を実装できるようになっています。 このように

                                        プログラミングなしでもできる機械学習(1) プログラミングが不要な機械学習の代表的なツールとは?
                                      • 一審無罪の「コインハイブ事件」、8日から控訴審 「検察側の主張は的外れ」と弁護側 - 弁護士ドットコムニュース

                                          一審無罪の「コインハイブ事件」、8日から控訴審 「検察側の主張は的外れ」と弁護側 - 弁護士ドットコムニュース
                                        • GitHub - milvus-io/milvus: A cloud-native vector database, storage for next generation AI applications

                                          Milvus is an open-source vector database built to power embedding similarity search and AI applications. Milvus makes unstructured data search more accessible, and provides a consistent user experience regardless of the deployment environment. Milvus 2.0 is a cloud-native vector database with storage and computation separated by design. All components in this refactored version of Milvus are state

                                            GitHub - milvus-io/milvus: A cloud-native vector database, storage for next generation AI applications
                                          • オタクと気持ち悪いという言葉 - データをいろいろ見てみる

                                            概要 Twitter上で「気持ち悪い」、「キモイ」という言葉が、どのように使われてるかと調査した。 調査対象は、キモイ、気持ち悪いという言葉を含むtweet、約28万件 時系列の変化を見るため、2018年と2019年で調査を行った 気持ち悪いと言う言葉は、オタクへの言及とともに使われている オタクを含んだtweetは、28万件中、14431件あった 調査結果 2018年調査 2018年に投稿されたツイート調査 調査期間 2018/01/09 - 2018/12/31 tweetソース元 Sample realtime Tweets API 2019年調査 2019年に投稿されたツィート調査 調査期間 2019/01/01- 2019/10/20 tweetソース元 Sample realtime Tweets API 気持ち悪いという言葉の特徴 気持ち悪いという単語は、他者を侮蔑する意味と

                                              オタクと気持ち悪いという言葉 - データをいろいろ見てみる
                                            • Streamlit • The fastest way to build and share data apps

                                              Streamlit turns data scripts into shareable web apps in minutes. All in pure Python. No front‑end experience required.

                                                Streamlit • The fastest way to build and share data apps
                                              • WebサービスのA/Bテストや機械学習でよく使う「確率分布」18種を解説 - paiza times

                                                主な確率分布の関連図 こんにちは、吉岡(@yoshiokatsuneo)です。 Webサービスを運営していると、利用状況を分析・予測したり、A/Bテストなどで検証したりすることがよくあります。 データを一個一個見ていてもよくわからないので、データ全体や、その背景の傾向などがまとめて見られると便利ですよね。そんなとき、データの様子を表現するためによく使われているのが「確率分布」です。 学校の試験などで使われる偏差値も、得点を正規分布でモデル化して、点数を変換したものです。 今回は、Webサービスなどでよく使われる確率分布18種類を紹介します。 それぞれ、Webサービスでの利用例やPythonでグラフを書く方法も含めて説明していきます。コードは実際にオンライン実行環境paiza.IOで実行してみることができますので、ぜひ試してみてください。 【目次】 正規分布 対数正規分布 離散一様分布 連続

                                                  WebサービスのA/Bテストや機械学習でよく使う「確率分布」18種を解説 - paiza times
                                                • データ分析プロジェクトの品質をキープしつつ効率的な検証をサポートする一時ファイル群の管理 - クックパッド開発者ブログ

                                                  研究開発部の takahi_i です。本稿はデータ分析、 機械学習関係のプロジェクトで数多く生成される一時オブジェクトおよびそれらのオブジェクトを保持するファイル(一時ファイル)を管理する取り組みについて解説します。 本稿の前半はデータを分析するプロジェクトの一般的なフローと起こりがちな問題(コードの品質管理)について解説します。後半はプログラム上で生成されるオブジェクト群をファイルに自動でキャッシュを管理するツール(Hideout)を使って、コードを整理整頓しやすくする施策について紹介します。 データを分析するプロジェクトの一般的なフロー まずデータを処理するプロジェクトや機械学習プロジェクトの典型的なフローについて考えてみます。まずは単純に機械学習器を取得した入力に対して適用するプロジェクト、次にもう少し複雑な事例、アプリケーションで利用するデータを生成するプロジェクトのフローについて

                                                  • 食べログの得点計算についてのポジティブな可能性を考えるー操作されたデータを検証する難しさー(井上明人) - エキスパート - Yahoo!ニュース

                                                    久しぶりのyahoo個人への投稿となりますが、この記事を公開するのは、正直、気が重いな、と思いつつ、公開します。 というのも、今、食べログに対して非常にネガティブな解釈が広がっているわけですが、何かしらポジティブな材料を提供するとなると、確実にいろいろ言われるだろうなあと思って気が重くて仕方がないのですが、ただ、人生の一時期、食べログにハマっていた人間として、論点として提供されるべきポイントが、提供されていないと感じましたので、本記事を公開する次第です。 ◆食べログの評価点数分布の「不自然さ」 さて、近年、食べログの点数評価アルゴリズムは、頻繁にその不正を疑われ議論になっています。 2016年には、評価アルゴリズムのリセットがあった際には、いくつかの店舗がいきなり3.0の点数にリセットされるなどといったことがあり、記事にもなりました。 そして10月8日に、藍屋えんさんという方が、ご自身のブ

                                                      食べログの得点計算についてのポジティブな可能性を考えるー操作されたデータを検証する難しさー(井上明人) - エキスパート - Yahoo!ニュース
                                                    • KinesisとLambdaでつくるServerlessなログ基盤 @ AWS DevDay Tokyo 2019 [C-2]

                                                      本セッションでは、弊社にて複数サービスで導入しているAWSのマネージドサービス (Lambda、CloudWatch Logs、Kinesis Data Streams、S3、Elasticsearch Service) を活用したServerlessなログ基盤の構成について紹介する。自前でログ基盤を管理しているが管理コストなど課題を感じている人や、コンテナ活用時のロギング構成の設計に悩んでいる人をターゲットにしている。 / / 現在のログ基盤の構成に至るまでの経緯(過去に試行錯誤した10以上の構成パターン)、設計思想(保守性、高信頼性、コスト削減、拡張性)について紹介する。 / / タップル誕生やCROSSMEをはじめとした実際に運用中のサービスを事例に、サービス用件ごとに合わせたロギング構成を解説する。また、2年半の期間で様々な構成を運用をしてきた事によって得られた知見について話す。ロ

                                                        KinesisとLambdaでつくるServerlessなログ基盤 @ AWS DevDay Tokyo 2019 [C-2]
                                                      • GCPで行動ログ基盤 を開発している話

                                                        Microservices - Where are my Transactions and my Consitency????

                                                          GCPで行動ログ基盤 を開発している話
                                                        • TechCrunch

                                                          [A version of this post appeared in TechCrunch’s robotics newsletter, Actuator. Subscribe here.] The last time I’d spoken with the NVIDIA at any length about robotics was also the last time we

                                                            TechCrunch
                                                          • 世界的な人気を誇る乙女ゲームにおける,徹底したデータドリブンによる物語構築術

                                                            GAMEBOOKのChief Business Development Officer,Nico Nowarra氏 日本で主に女性に人気のある,いわゆる「乙女ゲーム」というジャンルは当然ながら海外にも存在し,その一部は大きな売上を上げる巨大ジャンルとなっている。なかでも有名なのはビジュアルノベル系のゲームで,プレイヤーはゲーム内で提示される選択肢を選ぶことで異なる物語体験ができるというシステムのものだ。 日本からはあまり見えてこないタイプのゲームだが,このシステムを有するゲームを実際にどう設計し,運用するかにまで踏み込んだ講演がdevcom 2019で行われたので,レポートしたい。 必要に応じてメインプロットも変更 登壇したのはGAMEBOOKのChief Business Development Officer,Nico Nowarra氏だ。GAMEBOOKは多数の乙女ゲームを制作してい

                                                              世界的な人気を誇る乙女ゲームにおける,徹底したデータドリブンによる物語構築術
                                                            • テキストマイニング講義資料

                                                              2019.07.13に島根大学人間科学部で行った講義の資料です。 テキストマイニング/計量テキスト分析の紹介と、テキスト分析の研究デザイン、RとMeCabによる簡単な実習を含みます。

                                                                テキストマイニング講義資料
                                                              • 【新発見】「最近はいいねの獲得が難しくなっている」は本当か? 〜 Qiitaのいいねを可視化して分かった7つの驚愕 〜 - Qiita

                                                                【新発見】「最近はいいねの獲得が難しくなっている」は本当か? 〜 Qiitaのいいねを可視化して分かった7つの驚愕 〜 「Qiitaでいいねしたら草生えるページ」を作った副産物として全いいねの日時データを取得できました。 いいねした日時を使った分析をすると今までわからなかった驚愕の事実が見えてきました。 今までのQiita分析記事とこの記事では何が違うのか? 今までにもQiitaのいいねを分析した記事はいくつもありましたが、これらの中では記事データを使った分析を行なっていました。 データの取得元はAPIでいうと /api/v2/items になります。 このデータでは記事の投稿日時はわかってもいいねした日時まではわかりませんでした。 これに対してこの記事で使用するデータは、各記事についたいいねを /api/v2/items/:item_id/likes から取得しています。 このデータでは

                                                                  【新発見】「最近はいいねの獲得が難しくなっている」は本当か? 〜 Qiitaのいいねを可視化して分かった7つの驚愕 〜 - Qiita
                                                                • NYタイムズの記者も使っている、データ・ストーリーの王道パターン7選|Saya|note

                                                                  このように、可視化されたデータを連続して見せることによってファクトを伝えるのが、データ・ストーリーの手法です。 Ben Jones氏によるデータ・ストーリーについての解説と、彼が見出した7つの王道パターン データを伝える記事を多く出しているNYタイムズですが、彼らの新人記者向けの研修の資料では、データ・ストーリーについて詳しいBen Jones氏による以下の講演動画が紹介されていました。(講演のスライドはこちらから見られます。) 講演の内容について手短に解説します。Jones氏は当時(2015年)、データ可視化ツール大手のタブローソフトウェアでプロダクトマネージャーをしていました。(ちなみにタブローは、先月Salesforceに1.7兆円で買収されています。) ある日、タブローがいくつかの可視化されたデータを連続して見せる機能を公開したところ、ユーザーはそれを使ってさまざまなデータ・ストー

                                                                    NYタイムズの記者も使っている、データ・ストーリーの王道パターン7選|Saya|note
                                                                  • プロとアマの小説の特徴を数値化して比較してみたらやっぱり差があったので、それを埋めるための型付き小説記述用言語 TypeNovel を公開した件について - anti scroll

                                                                    ラノベのタイトルみたいな記事を書く、という夢が叶いました。 github.com 開発に至った動機 以前から、アマチュアの小説はプロに比べると、描写不足な傾向があるのかもしれない、と思っていました。 特に不足がちだと感じるのは「時間」に関する描写です。 季節がわからなかったり、昼か夜か、平日か休日かみたいなことが不明瞭な作品が多い気がします。 しかし印象だけで語ってもアレなので、実際に差があるのかどうかを計測してみました。 計算式は、 時間描写の文の数 * 時間描写分布のエントロピー / 文の数 です。 「時間描写分布のエントロピー」というのは「全体を通じて、どれだけ満遍なく時間表現が書かれているか」という数字だと思ってください。 例えば時間描写が冒頭部にしかなかったりすると数値が小さくなり、全編を通じて満遍なく描写されていると、数値が大きくなります。 あと時間描写というのは、一応「季節、

                                                                      プロとアマの小説の特徴を数値化して比較してみたらやっぱり差があったので、それを埋めるための型付き小説記述用言語 TypeNovel を公開した件について - anti scroll
                                                                    • ソニー銀行が目指す、データドリブンのあり方

                                                                      ビジネスによって生み出されるさまざまなデータを統合管理・分析して事業開発やマーケティングに活用するデータドリブンは、多くの企業にとって重要な経営課題だ。近年では、DMPを中核としてデータを活用するための様々なソリューションが世の中に登場し、機械学習などの先端テクノロジーによって高度化、効率化を続けている。 しかし一方で、実際にどのようにデータを統合し、統合されたデータを活用するかを考えるのは「人」であり、データドリブンでビジネスを考えられる人材の育成は急務の課題だと言えるだろう。 こうしたなかソニー銀行が、ソニーコンピューターサイエンス研究所、ソニー、ソニーグローバルソリューションズが共同で設立したデータアナリティクス人材の育成機関「データサイエンスラボ」と協同で、「データサイエンス ブートキャンプ」という社員向け研修プログラムを開始した。膨張し続けるビッグデータの活用が今後の大きなビジネ

                                                                        ソニー銀行が目指す、データドリブンのあり方
                                                                      • AbemaTV × freee × メルカリ × メルペイの分析チームリーダーが語る、自社のデータアナリスト組織の構造と求める人物像

                                                                        分析チームのプレゼンスを上げるための施策 田中耕太郎氏(以下、田中):それではパネルトークの第一部として、自己紹介とチーム紹介から始めさせていただきます。よろしくお願いします。 (会場拍手) はい、それではパネルトークの第一部をスタートします。まずはAbemaTVの阿部さんからよろしくお願いします。 阿部昌利氏(以下、阿部):「AbemaTVデータテクノロジーズ」の阿部です。社会人9年目の32歳です。 実は私は文系出身で、大学院では心理統計学を学んでいました。その後いくつかの会社を経て2018年にサイバーエージェントに入社し、AbemaTVの広告部門のデータサイエンティトを経て、今に至ります。 事前の質問で「分析チームはどうやって起ち上げればいいのか」という質問を頂いているのですが、これに関しては別に記事があるのでそちらをご覧ください。他には「分析チームのプレゼンスを上げるためにはどうした

                                                                          AbemaTV × freee × メルカリ × メルペイの分析チームリーダーが語る、自社のデータアナリスト組織の構造と求める人物像
                                                                        • Gunosyでのデータ分析 新卒編 - Gunosyデータ分析ブログ

                                                                          はじめに こんにちは、今年の4月に新卒として入社しグノシー事業部に配属されました齊藤です。 自分は現在グノシー事業部でグノシー(アプリ)の分析を専任しています。データ分析部の方はニュースパスやオトクル等複数のアプリを横断的に分析、ロジック開発を担当しています。 今回は各アプリの分析担当がどんなことをやっているのか、2ヶ月間どのような事を学んだかを新卒エンジニアの立場から紹介していこうと思います。もう働き始めてから2ヶ月経ったのか・・・ 分析 分析とだけ書くとやたら広い意味になりますが、主にプロモ指標などを作成、集計し部署の人が見やすい形に整えたり、キャンペーンや特集タブに関する集計、UI変更時のA/Bテスト*1などを行っています。RedashでSQLクエリを書いて可視化したり、以下の記事のようにGASでSlackへの通知を作ったりすることもあります。 data.gunosy.io 分析業務

                                                                            Gunosyでのデータ分析 新卒編 - Gunosyデータ分析ブログ
                                                                          • データサイエンティストがやらかしがちな過ちトップ10(海外記事紹介) - 渋谷駅前で働くデータサイエンティストのブログ

                                                                            (Image by Pixabay) "Top 10 Statistics Mistakes Made by Data Scientists"という刺激的なタイトルの記事が出ているのをKDnuggets経由で知りました。「データサイエンティストがやらかしがちな統計学的な誤りトップ10」ということで、いかにもなあるある事例が色々載っていて面白いです。 ということで、今回はこの記事を全訳にならない範囲で抄訳して、その内容を吟味してみようと思います(直訳しても意味が取りづらい箇所が多かったためかなりの部分を抄訳ながら意訳しています:こういう訳の方が良いなどのコメントあれば是非お寄せください)。言わずもがなですが、こういう海外記事紹介をやる時はネタ切れということです、悪しからず。。。 元記事の内容 1. Not fully understand objective function(目的関数が何か

                                                                              データサイエンティストがやらかしがちな過ちトップ10(海外記事紹介) - 渋谷駅前で働くデータサイエンティストのブログ
                                                                            • ブロックチェーンに続く新技術!DAGの構造を徹底解説 | AIre VOICE(アイレボイス) | ブロックチェーン情報発信メディア

                                                                              次世代ブロックチェーンともいわれるDAGとは? 新しく登場したDAG型暗号通貨は、仮想通貨市場でどれもが発行日より大幅に値をあげており、高く評価されているのがわかります。 DAGはどのように優れた構造をもっているのでしょう?以前からある仮想通貨に用いられるブロックチェーンと、DAGとの構造の違いを含めて詳しく解説します。 ===================== ※注 現在は「仮想通貨」を「暗号資産」に呼称変更されておりますが、本記事では一般に定着・浸透している名称の仮想通貨で記載しております。 ===================== まずはブロックチェーンの構造についておさらいしよう 仮想通貨ビットコインの成り立ちに欠かせない技術のひとつが、ブロックチェーンです。 ブロックチェーンは、仮想通貨の取引データを管理するための技術で、複数の取引データをある一定量まとめたものをブロックと呼

                                                                              • コインハイブ事件 横浜地判平31.3.27(平30(わ)509) - IT・システム判例メモ

                                                                                マイニングツール,Coinhiveをサイトに設置し,閲覧者にツールを実行させていたことについて,不正指令電磁的記録保管罪の成否が問題となった事件(控訴審係属中)。 事案の概要 X(被告人)は,サイトaを運営していたが,その維持管理費用をまかなうために,サイト閲覧者に仮想通貨のマイニングを行わせ,そこから得られる収益を得るモデルがあることを知った。そこでXは,マイニングスクリプトを自己のウェブサイトのHTML内に記述した。 本件の公訴事実は,おおよそ,「サイト閲覧者の同意を得ることなく,閲覧者の電子計算機にマイニングの演算を行わせる不正指令電磁的記録であるプログラムコードをサイトaを構成するファイル内に蔵置して保管し,もって人が電子計算機を使用するに際してその意図に反するべき不正な指令を与える電磁的記録を保管した」というものである。 ここで取り上げる争点 本件プログラムコードの不正指令電磁的

                                                                                  コインハイブ事件 横浜地判平31.3.27(平30(わ)509) - IT・システム判例メモ
                                                                                • データサイエンス入門スキル | Octoparse

                                                                                  近年、「ビッグデータ」の注目に伴い、ビッグデータを活用するための手段として、「データマイニング」にもよく耳にします。「データマイニング」とは、そもそもどのようなものなのでしょうか? データマイニングとは データマイニング(Data mining)とは、その言葉の示す通り、膨大なデータから有効な情報を採掘(マイニング)する技術です。大量のデータを統計学や人工知能などの分析手法を使って、データの相関関係や隠れたパターンなどを見つけるための解析方法です。 データマイニングはデータサイエンスの分野における重要な技術です。Glassdoorの「アメリカの仕事ランキングTOP50」のリストでは、データマイニングは、2018年から2021年にかけてアメリカで第1位と評価されています。 その上、2018年の17000件の求人情報と比べて、求人の件数は2年間で160%大幅に増加しました。データサイエンティス