並び順

ブックマーク数

期間指定

  • から
  • まで

361 - 400 件 / 2021件

新着順 人気順

pandasの検索結果361 - 400 件 / 2021件

  • the peculiar case of japanese web design - sabrinas.space

    the peculiar case of japanese web design a project that should not have taken 8 weeks how is japanese web design different? in this 2013 Randomwire blog post, the author (David) highlighted an intriguing discrepancy in Japanese design. While the nation is known abroad for minimalist lifestyles, their websites are oddly maximalist. The pages feature a variety of bright colours (breaking the 3 colou

    • 450超の悪意あるPyPIパッケージを発見、Python開発者の暗号資産が標的

      Phylumはこのほど、「Phylum Discovers Revived Crypto Wallet Address Replacement Attack」において、PyPI (Python Package Index)リポジトリに大量の不正なPyPIパッケージが登録されていることを伝えた。タイポスクワッティングによるサイバー攻撃とされ、クリッパーマルウェアをPython開発者のシステムに感染させる450以上の悪意のあるPyPIパッケージが公開されていることが明らかとなった。 タイポスクワッティングとは、ユーザーがWebブラウザにURLを入力する際に犯す打ち間違いを悪用して、攻撃者が用意した不正なWebサイトへ誘導する攻撃手法。 Phylum Discovers Revived Crypto Wallet Address Replacement Attack Phylumにより発見された

        450超の悪意あるPyPIパッケージを発見、Python開発者の暗号資産が標的
      • PythonのウェブフレームワークDashで手持ちのお小遣いファイルを可視化する - Qiita

        前置き 手持ちのファイルをサッと可視化したいなんてニーズはよくあります。そういう時にサッとできる環境だと、ノンプログラマーの人もデータが活用でき、根拠のない勘と根性の世界がデータに基づいた勘と根性の世界に変えられます。 今回は身近な事例として、次のような提携のお小遣いのファイルをアップロードできる(pic1)Dashアプリケーションを作成しました。date列には日付、variable列には支出項目、value列は金額が入っています。残念ながら私はお小遣い帳をつけていないので、今回は日本の家計調査のデータを使っています。 最終的に作成したアプリケーションは次のようなものです。ファイルアップロードツールをクリックするとファイルが選択でき、上のような3つの項目を持つお小遣いデータであれば、グラフが作成され項目を選択して描画することもできます。 こんなもの作るの大量のコードを書かないとダメなんでし

          PythonのウェブフレームワークDashで手持ちのお小遣いファイルを可視化する - Qiita
        • Anaconda、Pythonアプリをブラウザで実行できるOSSフレームワーク「PyScript」を発表

          Pythonディストリビューションの「Anaconda」を手掛けるAnacondaは2022年4月30日(米国時間)、Pythonと標準HTMLを組み合わせ、ブラウザで動作するリッチなPythonアプリを作成できるオープンソースソフトウェア(OSS)のフレームワーク「PyScript」を開発していることを明らかにした。 PyScriptとは? PyScriptは、一貫したスタイルルールがあり、表現力が豊かで、習得しやすい一流のプログラミング言語をユーザーに提供することを目的としている。AnacondaはPyScriptの特徴として下記を挙げている。 ブラウザで動くPython サーバ側の設定に依存することなく、ドロップインコンテンツ、外部ファイルのホスティング、アプリのホスティングを可能にする。外部ファイルのホスティングは、「Pyodide」プロジェクト(後述)によって実現されている Py

            Anaconda、Pythonアプリをブラウザで実行できるOSSフレームワーク「PyScript」を発表
          • Pythonデータ分析手順のカンニングシート(仮) - Qiita

            おつかれさまです。 必要に迫られており、クソ焦って勉強した。 とりあえずWEB上でカンニングできるように、1番素人がしっくりきそうなデータ分析手順のカンニングシートをQiitaにアップ。 必要なライブラリのインストール # pandasはデータの取扱系ライブラリ import pandas as pd # とくにDataFrameはよく使うので、個別importしておく from pandas import DataFrame # numpyは行列計算系ライブラリ import numpy as np # matplotlibとseabornはグラフ系ライブラリ import matplotlib.pyplot as plt import seaborn as sns # Jupyter Notebookを使う想定なのでブラウザ上にグラフ表示できるように設定 %matplotlib inl

              Pythonデータ分析手順のカンニングシート(仮) - Qiita
            • データ分析で頻出のPandas基本操作 - Qiita

              はじめに 機械学習や深層学習が人気の昨今ですが、それらのモデルの精度に最もクリティカルに影響するのはインプットするデータの質です。データの質は、データを適切に把握し、不要なデータを取り除いたり、必要なデータを精査する前処理を行うことで高めることができます。 本頁では、データ処理の基本ツールとしてPandasの使い方を紹介します。Pandasには便利な機能がたくさんありますが、特に分析業務で頻出のPandas関数・メソッドを重点的に取り上げました。 Pandasに便利なメソッドがたくさんあることは知っている、でもワイが知りたいのは分析に最低限必要なやつだけなんや…!、という人のためのPandasマニュアルです。 また、単に機能を説明するだけでは実際の処理動作がわかりにくいため、ここではSIGNATE(旧DeepAnalytics)のお弁当の需要予想を行うコンペのデータを拝借し、このデータに対

                データ分析で頻出のPandas基本操作 - Qiita
              • Raspberry PiでTensorflowの環境を構築【2020年】 - Qiita

                Raspberry PiでTensorflowの環境構築【2020年】 情報が少なく、Version管理の難しいRaspberry Piでの環境構築を以下に記します。 Raspberry Pi OS (32-bit) LiteをSDに書き込む 僕はmobileNetV2を用いてリアルタイムの画像処理をするのにOSのサイズをできる限り軽量化する必要がありました。 自分のパソコンをsshでつなぐ。同じwifi環境下でのみ Wifiの管理ファイルにご自身のWifi設定を書き加え、sshで接続します。 下記のコマンドでOS関係を最新の状態にします。 sudo apt update sudo apt upgrade -y sudo reboot この記事を参考にスワップ領域を拡張します。 少しでもメモリ容量を持たせるために拡張します。 テキストファイル開くときおすすめはnanoです。Nanoは使い方

                  Raspberry PiでTensorflowの環境を構築【2020年】 - Qiita
                • ウェイ(18)がビッグデータで導く†最強英会話フレーズ300選† - Qiita

                  英会話してる時に、 「あれ??言いたいことが口から出てこない...やばい」 ってシチュエーション、結構ありませんか? このビッグデータで日常英会話をを分析した「最強英会話フレーズ300選」さえあれば、英語で言いたいことがスラスラ話せる! 最悪、アメリカで一文無しになっても生存できる英語力が手に入るはずです。 きっかけ Chris(日本語二年目)「What the hell. Japanese is really freaking vague!(ふざけんな、この日本語とかいう言語難し過ぎだろw)」 ウェイ「Really?? Why are you confused?(まじ?どこらへんがわからないんだよ)」 Chris「For example, irregular verbs are. What's the difference between Infinitive and Negative.

                    ウェイ(18)がビッグデータで導く†最強英会話フレーズ300選† - Qiita
                  • GKEでStreamlitをホスティングして社内用アプリを作った話 - エムスリーテックブログ

                    はじめに ブンブンハローテックブログ。エムスリー AI・機械学習チームでエンジニア兼YouTuberをやっています河合と笹川です*1。本記事は、AIチームが社内向けに提供を初めたビジュアライズアプリケーションに関する解説の記事です。 GKE上のStreamlitサーバのホスティング設定と、機械学習エンジニアが社内向けの可視化を行う際の一例として、参考となれば幸いです。 はじめに Background Streamlitとは Streamlitの特徴 アプリケーション、インフラ構成 おわりに We're hiring Background 一般的に「機械学習エンジニアが社内向けの可視化アプリケーションを作る」といったケースでは、以下のようなシステム利用が考えられるかと思います。 HTML、xlsx、Googleスプレッドシートなどを作成、配布する S3、GCSのようなストレージの静的サイトホ

                      GKEでStreamlitをホスティングして社内用アプリを作った話 - エムスリーテックブログ
                    • Bokehで決定木の対話的可視化 - インテリになりたい

                      scikit-learnの決定木をjupyter notebook上で対話的に可視化できるようにしてみた 背景 決定木の可視化 機械学習モデルを人が理解できるようにする技術に興味を持っています. 特に決定木は皆さん大好きな勾配ブースティング木 (GBM) の一要素でもあり, 決定木を人が理解できるように可視化することには価値があります. 機械学習モデルの中では決定木は人が理解しやすい(解釈可能性が高い)モデルと言われており, 例えばscikit-learnではgraphvizやmatplotlibで可視化することができます. www.haya-programming.com ただしこの可視化は分岐条件がテキストで書かれていて直感的な理解がしにくく, 見た目もちょっとイケてないと感じます. これに対してpythonではdtreevizという素晴らしい決定木可視化パッケージが公開されています.

                        Bokehで決定木の対話的可視化 - インテリになりたい
                      • 機械学習をコモディティ化する AutoML ツールの評価 - RAKUS Developers Blog | ラクス エンジニアブログ

                        こんにちは、開発エンジニアの amdaba_sk(ペンネーム未定)です。 昨年度まで、ラクスの開発部ではこれまで社内で利用していなかった技術要素を自社の開発に適合するか検証し、ビジネス要求に対して迅速に応えられるようにそなえる 「開(か)発の未(み)来に先(せん)手をうつプロジェクト(通称:かみせんプロジェクト)」というプロジェクトがありました。本年度からは規模を拡大し、「技術推進プロジェクト」と名称を改めて再スタートされました。 本記事では、昨年度かみせんプロジェクトとしての最後のテーマとなった機械学習テーマの延長として 2020 年度上期に行った「AutoML ツールの調査と評価」について取り組み結果を報告します。 (ちなみに機械学習テーマは前年度から継続していたこともあり、上期で終了となってしまいました。残念……) なお過去の報告記事はかみせんカテゴリからどうぞ。技術推進プロジェクト

                          機械学習をコモディティ化する AutoML ツールの評価 - RAKUS Developers Blog | ラクス エンジニアブログ
                        • [pandas超入門]Pythonでデータ分析を始めよう! データの読み書き方法

                          連載目次 本シリーズと本連載について 本シリーズ「Pythonデータ処理入門」は、Pythonの基礎をマスターした人を対象に以下のような、Pythonを使ってデータを処理しようというときに便利に使えるツールやライブラリ、フレームワークの使い方の基礎を説明するものです。 Pythonだけを覚えれば何でもできるわけではない、というのはハードルが高く感じられるかもしれません。それでもプログラミング言語に関する基礎が身に付いたら、後は各種のツールを使いながら、言語とツールに対する理解を少しずつ、しっかりと深めていくことで自分がやれることも増えていきます。そのお手伝いをできたらいいな、というのが本シリーズの目的とするところです。 なお、本連載では以下のバージョンを使用しています。 Python 3.12 pandas 2.2.1 pandasとは pandasはデータ分析やデータ操作を高速かつ柔軟に

                            [pandas超入門]Pythonでデータ分析を始めよう! データの読み書き方法
                          • 新年の抱負を立てるかわりにTwitter APIでbotを作った話 - データで見る世界

                            新年あけましておめでとうございます。本年もよろしくお願いいたします。 昨年はこちらのブログには一度も投稿しませんでしたね。noteのほうではいくつか記事を書いたのですが。そちらもよければご覧ください。リンクはこの記事の下のほうに貼っておきます。 さて、タイトルにあるとおり、新年は明けましたが、僕は抱負を立てませんでした。そのかわり、Twitter APIを使ってbotを作ったので、なぜそうしたのか、またその実装について書いていきます。 目次 1. なぜTwitter APIでbotを作ったのか 1-1. なぜ新年の抱負を立てないか 1-2. なぜTwitterか 1-3. 何をやりたいか 1-3-1. 凝り固まったTLをほぐしたい 1-3-2. フォロワーと積極的にコミュニケーションをとりたい 2. どんなbotを作ったのか 2-1. 全体像 2-2. APIインスタンス作成(get_ap

                              新年の抱負を立てるかわりにTwitter APIでbotを作った話 - データで見る世界
                            • Route53のAレコードで所有していないEIP、パブリックIPが設定されていないか「Ghostbuster」を使って把握してみた | DevelopersIO

                              Route53のAレコードで所有していないEIP、パブリックIPが設定されていないか「Ghostbuster」を使って把握してみた こんにちは、コンサル部@大阪オフィスのTodaです。 Route53とEC2を利用する中でElastic IP(EIP)やパブリックIPをAレコードに設定して、インスタンス破棄、EIP解放時に消し忘れたというご経験はありませんでしょうか? 消し忘れたAレコードは悪意のあるユーザにIPを再取得されてサブドメイン乗っ取りにつながる場合がございます。 今回はRoute53のAレコードで、所有していないEIP、パブリックIPが設定されていないかを Ghostbusterというツールを利用して確認してみました。 ■ Github assetnote / ghostbuster https://github.com/assetnote/ghostbuster Route5

                                Route53のAレコードで所有していないEIP、パブリックIPが設定されていないか「Ghostbuster」を使って把握してみた | DevelopersIO
                              • ゼロからはじめるPython(58) 読み放題のネット小説をネガポジ判定で評価してみよう

                                最近では、古今東西、いろいろな小説がオンラインで公開されている。それらの小説を読み始めたら時間がいくらあっても足りないほどだ。そこで、今回は、簡単なネガポジ判定の手法を使って、その小説を読む前に、小説を解析して好きな小説の傾向を掴む方法を紹介しよう。セットアップ不要でブラウザで使えるPython環境の実行環境Colaboratoryを使うので、気軽に形態素解析や自然言語解析の初歩を実践してみよう。 ネット小説は読み放題! 今は小説好きには堪らない時代だ。明治以前の文豪たちの作品であれば、多くは著作権が切れているので「青空文庫で読み放題で、オンライン小説の投稿サイトの「小説を読もう!」なら70万を超えるタイトルが読み放題だ。筆者も小説が好きなので、時々読んでいるのだが、とにかくいろいろな種類があるので、どれを選んで良いのか悩むほど。そこで、今回は、ネガポジ判定の手法を利用して、小説を簡単に解

                                  ゼロからはじめるPython(58) 読み放題のネット小説をネガポジ判定で評価してみよう
                                • 2019年を振り返る(機械学習の世界に足を踏み入れた) - shnagaiの日記

                                  年末で、ちょうどアドベントカレンダーの枠があったので今年一年の活動を振り返っていこうと思う。 この記事はコネヒト Advent Calendar 2019 21日目の記事です。 2019年は結構自分の働き方が変わった一年でもあったので、下記2点を中心に書いていく。 機械学習の世界に足を踏み入れた アウトプット中心の活動ログ 機械学習の世界に足を踏み入れた 組織の大きな変化もあり、今年から業務として機械学習に取り組んでいる。(元々興味はあったのでチャレンジするいい機会に恵まれたというのが正直なところ) ここでは、機械学習関連のものだけに絞って時系列でどんなことをやっていたのかを振り返ろうと思う。 1〜3月 当時のCTOの @tatsushim がPythonによるはじめての機械学習 という本を執筆しており、そのレビュワーとしてこの本を通じて機械学習を学び始めた。 この本は、機械学習の初学者が

                                    2019年を振り返る(機械学習の世界に足を踏み入れた) - shnagaiの日記
                                  • Pythonパッケージの依存関係とライセンスを確認する | DevelopersIO

                                    はじめに データアナリティクス事業本部のkobayashiです。 Pythonを使って開発を行っていると、AWSのリソースを扱う際にはboto3でしたりデータ解析を行う場合はPnadas,Scipyなど様々なパッケージを使っているかと思います。 今回、その利用しているパッケージの依存関係やパッケージを調べる機会があったのでその方法をまとめたいと思います。 環境 Python 3.7.4 pipdeptree 1.0.0 pip-licenses 2.2.1 パッケージ依存関係とライセンスを調べるツール 今回使用したツールは以下になります。どちらのツールもきちんと継続的にメンテナンスされており、pipでインストールできるのでこれらを使いました。 パッケージ依存関係をツリーで表示するツール pipdeptree · PyPI pipでインストールしたPythonパッケージを依存関係ツリー形式で

                                      Pythonパッケージの依存関係とライセンスを確認する | DevelopersIO
                                    • Python: Streamlit を使って手早く WebUI 付きのプロトタイプを作る - CUBE SUGAR CONTAINER

                                      Streamlit は、ざっくり言うと主にデータサイエンス領域において WebUI 付きのアプリケーションを手早く作るためのソフトウェア。 使い所としては、ひとまず動くものを見せたかったり、少人数で試しに使うレベルのプロトタイプを作るフェーズに適していると思う。 たとえば、Jupyter で提供すると複数人で使うのに難があるし、かといって Flask や Django を使って真面目に作るほどではない、くらいのとき。 使った環境は次のとおり。 $ sw_vers ProductName: macOS ProductVersion: 11.3.1 BuildVersion: 20E241 $ python -V Python 3.8.9 もくじ もくじ 下準備 基本的な使い方 基本的な書式 プレースホルダー プログレスバーを使った処理の進捗の可視化 基本的な可視化 組み込みのグラフ描画機能

                                        Python: Streamlit を使って手早く WebUI 付きのプロトタイプを作る - CUBE SUGAR CONTAINER
                                      • 100+ Best GitHub Repositories For Machine Learning

                                        There are millions of github repos and filtering them is an insane amount of work. It takes huge time, efforts and a lot more. We have done this for you. In this article we’ll share a curated list of 100+ widely-known, recommended and most popular repositories and open source github projects for Machine Learning and Deep Learning. So without further ado, Let’s see all the hubs created by experts a

                                          100+ Best GitHub Repositories For Machine Learning
                                        • 天気の子、その影響は10メートルの水没⁉︎ その時日本はどうなっていたのか | 宙畑

                                          天気の子の作中で、東京のどの範囲が浸水していたのか。そしてそのときその他の地域、世界はどうなっていたのか。標高データを用いて浸水範囲を考えてみました。 2022年8月31日以降、Tellus OSでのデータの閲覧方法など使い方が一部変更になっております。新しいTellus OSの基本操作は以下のリンクをご参照ください。 https://www.tellusxdp.com/ja/howtouse/tellus_os/start_tellus_os.html 1. はじめに 2019年7月19日に公開された新海誠監督の最新作映画「天気の子」のBlu-ray&DVDが2020年5月27日に満を持して販売開始! 劇中では、東京の大部分が大雨によって浸水してしまった描写がありました。 もしも、天気の子の舞台であった東京と同程度世界的に海水面が上昇したらどうなったのか……。そんな疑問を持った宙畑編集部

                                            天気の子、その影響は10メートルの水没⁉︎ その時日本はどうなっていたのか | 宙畑
                                          • ExcelにPythonコードを埋め込める「Python in Excel」の紹介 | gihyo.jp

                                            筒井(@ryu22e)です。2024年2月の「Python Monthly Topics」は、Excelの新機能Python in Excelについて紹介します。 なお、Python in Excelは本記事執筆時点(2024年1月29日)ではプレビュー段階です。正式版リリース時には仕様が変更される可能性があります。 誰向けの機能なのか Python in Excelは、以下のようなことをしたい人に最適な機能です。 Excelに入力したデータを集計、分析したい Excelに入力したデータでグラフを作成したい 従来も上記を行うための機能はありましたが、Python in ExcelではPythonを使うことでより複雑な処理を書くことができます。 導入方法 冒頭でも説明した通り、Python in Excelは本記事執筆時点ではプレビュー段階です。今のところWindows版Excel(Exce

                                              ExcelにPythonコードを埋め込める「Python in Excel」の紹介 | gihyo.jp
                                            • Transformer モデルの仕組みを JAX/Flax で実装しながら解説してみる(パート1) - めもめも

                                              なんの話かと言うと 最近、大規模言語モデルを用いたチャットシステムがよく話題になりますが、言語モデルの性能が大きく向上するきっかけとなったのが、下記の論文で公表された「Transformer」のアーキテクチャーです。 arxiv.org ここでは、JAX/Flax を用いて Transformer を実装しながら、その仕組みを解説していきます。このパート1では、Embedding レイヤーを解説します。 JAX/Flax の使い方を学びたいという方は、こちらの書籍を参照してください。 JAX/Flaxで学ぶディープラーニングの仕組み 作者:中井悦司マイナビ出版Amazon Transformer の全体像 冒頭の論文では、Transformer Encoder と Transformer Decoder を組み合わせた下記のモデルが説明されています。 左側の Encoder でテキストを解

                                                Transformer モデルの仕組みを JAX/Flax で実装しながら解説してみる(パート1) - めもめも
                                              • KaggleのNLPコンペで初手に使える可視化 〜BERTopicを用いた文書クラスタリングと可視化〜

                                                BERTopic は、Transformersを用いて文書のトピックモデリングを行うためのPythonライブラリです。本記事では、自分がKaggleコンペの初手EDAによく使うコードをまとめました。 入出力のイメージ 入力: 文章のリスト (例:["I am sure some bashers of Pens fans ...", "My brother is in the market for a high-performance video card that supports VESA local bus with 1-2MB RAM. Does anyone hav...", ...]) 出力: 各文書の関係性を表した2次元座標図 ソースコード 以下にもあります Github Google colab import pandas as pd from umap import UMA

                                                  KaggleのNLPコンペで初手に使える可視化 〜BERTopicを用いた文書クラスタリングと可視化〜
                                                • pandasのStyling機能で強化するJupyter実験レポート / PyConJP 2019

                                                  PyConJP 2019: https://pycon.jp/2019/ Speaker: [Twitter] @komo_fr (https://twitter.com/komo_fr) [GitHub] @komo-fr (https://github.com/komo-fr) Video: https://www.youtube.com/watch?v=T8lL9Nb3hMM GitHub: https://github.com/komo-fr/PyConJP2019_pandas_styling nbviewer: https://nbviewer.jupyter.org/github/komo-fr/PyConJP2019_pandas_styling/blob/master/notebooks/styling.ipynb Togetter: https://togetter.c

                                                    pandasのStyling機能で強化するJupyter実験レポート / PyConJP 2019
                                                  • はじめての自然言語処理 spaCy/GiNZA を用いた自然言語処理 | オブジェクトの広場

                                                    前回は BERT についてその概要と使い方を紹介しました。今回は自然言語処理ライブラリである spaCy と spaCy をフロントエンドとする日本語NLPライブラリの GiNZA について紹介します。 1. 始めに 本記事では欧米で有名な自然言語処理ライブラリである spaCy とリクルートと国立国語研究所の共同研究成果である日本語NLPライブラリ GiNZA について紹介します。記事の前半では、spaCy と GiNZA の概要と日本語を処理する際の基本的な機能/操作について説明します。後半では、spaCy で提供される文章分類機能について、前回までに紹介した手法も含めて精度を比較してみます。 2. spaCy と GiNZA の概要 spaCy は Explosion AI 社の開発する Python/Cython で実装されたオープンソースの自然言語処理ライブラリで MIT ライセ

                                                      はじめての自然言語処理 spaCy/GiNZA を用いた自然言語処理 | オブジェクトの広場
                                                    • gokart 1.0.0 をリリースしました - エムスリーテックブログ

                                                      はじめに はじめまして。エムスリー AI・機械学習チームの河合(@vaaaaanquish)です。 本記事投稿日と同日、エムスリーが開発しているOSSのうちの1つであるgokartのversion 1.0.0をリリースする運びとなりました。 本記事は、これまでのgokartの軌跡と成果を紹介しつつ、内情を含めながら、gokart 1.0.0に込めた想いを綴るものです。 はじめに gokartとは gokart 1.0.0 ドキュメントの拡充とロゴの追加 gokart.build gokartメジャーバージョンリリースに寄せて おわりに gokartとは gokartは、元チームリーダーであった西場さん@m_nishibaが、AI・機械学習チームを1人立ち上げた際、チームの基盤となるよう作成した、機械学習パイプラインを取り扱うPythonモジュールです。 github.com 機械学習のパイ

                                                        gokart 1.0.0 をリリースしました - エムスリーテックブログ
                                                      • Vertex AIを活用したMLOps基盤の作成 | CyberAgent Developers Blog

                                                        みなさんどうもこんにちは、AI事業本部の「極予測TD」というプロダクトで2023年2月から2ヶ月間、機械学習エンジニアとしてインターンシップ「CA Tech JOB」に参加させていただいた、高橋駿一と申します。本記事では、インターンシップで行った、MLOps基盤の開発についてご紹介します。 極予測TDとは 極予測TDとは、レスポンシブ検索広告(RSA)を自動生成する「広告テキスト自動生成AI」と、広告配信効果を事前に予測する「効果予測AI」を掛け合わせることで、効果的なRSAを制作するプロダクトです。 本インターンシップでは、効果予測AIのMLOpsに取り組みました。 背景 チームに参加した際、以下のような状況にありました。 複数の予測モデルが運用されているうち、一部、MLパイプラインが未実装のものがあった 上記モデルはリリース当初からモデルが更新されていなかったが、時間が経過したことでデ

                                                          Vertex AIを活用したMLOps基盤の作成 | CyberAgent Developers Blog
                                                        • 「500年後に日本人が佐藤だけになる」という試算の問題と改善 - ill-identified diary

                                                          この記事の要約 はじめに 問題点の要約 (追記) 先行研究について GARCH(っぽい)モデルによるシミュレーション シミュレーション前の理論分析 選択的夫婦別姓との比較 (追記) ゴルトン゠ワトソン分枝過程について 使用するデータ シミュレーションの技術的な補足 乱数生成について GARCHモデルの結果 シミュレーションの追試 より複雑なシミュレーションについて 男女別 世代重複 創作苗字 三親等の婚姻禁止ルール より高度な人口学的モデル 結論 2024/4/22: 先行研究とゴルトン゠ワトソン分枝過程の解説の追記 2024/4/23: 多数の言い回しのおかしい箇所の校正 2024/4/24: グラフ上の記載ミスとグラフ描画コードを修正 この記事の要約 先日報道された「500年後に日本人が佐藤だけになる」という試算の内容に違和感を覚えた. 資料を確認してみると, 大きな問題のある方法で試

                                                            「500年後に日本人が佐藤だけになる」という試算の問題と改善 - ill-identified diary
                                                          • Python for Data Analysis, 3E

                                                            About the Open Edition The 3rd edition of Python for Data Analysis is now available as an “Open Access” HTML version on this site https://wesmckinney.com/book in addition to the usual print and e-book formats. This edition was initially published in August 2022 and will have errata fixed periodically over the coming months and years. If you encounter any errata, please report them here. In general

                                                            • [Stable Diffusion] Depth-to-Imageモデルを学習なしで特定のドメインに適応させる

                                                              はじめに こんにちは。なんかです。 早速本題に入ります。 [2023/01/20追記] この記事で説明しているDepth-to-Imageモデルのドメイン適応と、適応したモデルのAUTOMATIC1111さんのWebUIでの使用が行えるColab Notebookを公開しました。 こんな感じで使えます Depth-to-Imageモデルの説明 StabilityAIが公開したStable Diffusion V2系のモデルの中に、depthモデルというものがあります。 このモデルができることは、一般的なStable Diffusionのimg2imgができることと基本的には同じで、画像とテキストを入力とし、入力された画像スタイルをテキストの指示に従って変換する、というものです。 まずは、一般的なモデル(ここではWaifu Diffusion V1.4 Epoch1を使用しています)のimg

                                                                [Stable Diffusion] Depth-to-Imageモデルを学習なしで特定のドメインに適応させる
                                                              • Chainer/CuPy v7のリリースと今後の開発体制について

                                                                Chainer/CuPy v7のリリースと今後の開発体制について By Chainer Team Dec 5, 2019 In Announcement Chainer/CuPy v7のリリース、およびChainerの開発体制の変更についてお知らせします。 Chainer/CuPy v7 本日、ChainerおよびCuPyのv7.0.0をリリースしました。変更点については各リリースノートをご覧ください。主要な変更点は以下の通りです。 Chainer v7 (alpha, beta1, beta2, beta3, beta4, rc1, major): ChainerMNを含む多くの機能がChainerXのndarrayに対応しました。 ONNX-ChainerがChainerに統合されました。 TabularDataset が追加されました。カラム指向のデータセットをpandasのような抽

                                                                  Chainer/CuPy v7のリリースと今後の開発体制について
                                                                • 速度・出力量・コスト効率最強の、Gemini 1.5 Flash!

                                                                  はじめに おれの名前は樋口恭介。とにかく速いものが好きだ。そして今日は最近一番"速さ"を感じたものを紹介したい。そう、"Flash"のことです。 5月15日にGoogleの新しいモデル「Gemini 1.5 Flash」が発表され、ちょうどその日に名古屋イノベーターズガレージというところで生成AIのセミナーをすることになっていたので、その場で触ってみました。 そしたら……なんかプロンプト一発で1万字くらいが数分で出てきてしまい、あまりの衝撃で絶句してしまいました。LLMが出てきてから1年半くらい? ほぼ毎日触っていますが、こいつらはまだおれを驚かせてくれる……。 以下は急に446行・約1万字が出てきて放心状態のぼくの様子。 まあこういうのは動きを見てもらうのが一番でしょうから、ぜひ見てみてください。以下、あらためて触ってみた様子を動画におさめたものです。 Flashのデモ動画 いやこれマジ

                                                                    速度・出力量・コスト効率最強の、Gemini 1.5 Flash!
                                                                  • Qlibを使った機械学習パイプライン環境の構築 投資の取引戦略最適化と機械学習モデル作成の省力化を目指して - 株のシステムトレードをしよう - 1から始める株自動取引システムの作り方

                                                                    概要 はじめに Qlibの試用 動作条件 使用したrequirements.txt データの取得 予測の実施 出力 図示 ソースコード バックテストでのポートフォリオ分析 リスク分析、分析モデル おわりに 概要 本記事では、Qlibを使用して、機械学習パイプライン環境を構築する第一歩について述べる。 はじめに このブログの趣旨としては、当初は「戦略作成」→「戦略検証」→「戦略稼働」→「成果の評価」→「戦略へフィードバック」といったサイクルを管理できるような自動トレーディングシステムを作ることを考えていた。 最近、すこし株取引から離れていたのだが、最近になってまたやり始めようかなと思い、色々と現在の状況を調べはじめた。 その中で、MicrosoftのリポジトリにQlibというものがあるのを見つけた。これが2020年の8月から作られたもので、現在でもメンテされており、もしかするとこれがやりたい

                                                                      Qlibを使った機械学習パイプライン環境の構築 投資の取引戦略最適化と機械学習モデル作成の省力化を目指して - 株のシステムトレードをしよう - 1から始める株自動取引システムの作り方
                                                                    • 中国の最新論文の方式で日本のコロナウィルスの感染者数を予測してみた - Qiita

                                                                      r 成長率 成長率は、一人の人がほかの人に感染させる割合です。 これは論文中の中国での数値をベースにして以下のように設定しました。 r = 0.3 l 隔離率 隔離率は、感染者が隔離される割合です。 これは論文中の中国での数値をベースにして以下のように設定しました。 l = 0.1(2020/2/28まで) l = 0.5(2020/2/29から) 発症率 f2(t) 感染から発症への推移確率 これは論文には記載されていませんでした。 感染しても発症しない人が7-8割はいるというニュースを聞いています。 また発症するまでに長くても14日ということから、以下のように設定しました。 f2(t) = 0.2/14 × t (t < 14) f2(t) = 0.2 (t >= 14) 入院率 f4(t) 感染から入院への推移確率 感染して入院した割合は、まったく分かりません。 そのため発症した人の

                                                                        中国の最新論文の方式で日本のコロナウィルスの感染者数を予測してみた - Qiita
                                                                      • 【タイタニック】AutoTrainで2値分類 - Qiita

                                                                        AutoTrain🚂🚂🚂とは ノーコードでテキスト分類や要約や構造化データの機械学習などがstate-of-the-artできるサービスです。本日より構造化データもサポートされました🎉 AutoNLPだとググラビリティが低かったのではなく、構造化データもサポートしたかったから名称変更したようです。 データ準備 沈没する船の乗客が生存できたかどうかの2値分類をします。 CSVファイルをダウンロードしましょう。 wget https://raw.githubusercontent.com/datasciencedojo/datasets/master/titanic.csv プロジェクトの作成 Tabular Data Classification (Binary) を選択し、プロジェクトを作成します。 csvファイルをアップロード jsonlでもアップロードできます。 今回はcsvフ

                                                                          【タイタニック】AutoTrainで2値分類 - Qiita
                                                                        • Python未導入環境においてPandasGUIとpandas-profilingを使用可能なEDAツール『Pandas Anywhere』を作ってみた - Qiita

                                                                          Python未導入環境においてPandasGUIとpandas-profilingを使用可能なEDAツール『Pandas Anywhere』を作ってみたPythonpandasデータ分析TkinterPyInstaller はじめに この度、PythonライブラリであるPandasGUIとpandas-profilingを、Pythonをインストールしていない環境においても使用できるEDAツール**『Pandas Anywhere』**を作成したので公開します。本ツールを使用することで、誰でもどこでも簡易にビッグデータ※の分析が可能となります。 ※本記事でいうビッグデータとはMicrosoft ExcelやAccessで扱うのが困難な大容量データを指します。 作成の動機 前回書いた記事「Python初学者のためのPandas100本ノック」では、知り合いにPython・機械学習を始める人が

                                                                            Python未導入環境においてPandasGUIとpandas-profilingを使用可能なEDAツール『Pandas Anywhere』を作ってみた - Qiita
                                                                          • 2020年で最も需要のあるプログラミング言語 - Qiita

                                                                            本記事はMost in-demand programming languages in 2020の日本語訳です。翻訳元に報告していますが、もし苦情が来たら消します。 翻訳は不慣れなので変なところもあると思いますが、ご容赦ください。 ソフトウェア開発業界は絶えず変化しており、それは開発者の能力に対する企業のニーズも変化していることを意味します。そのため、あなたが想像できるように、Webアプリケーション、ゲーム、アルゴリズムなどのあらゆる側面の開発をカバーするために、選択できるプログラミング言語はたくさんあります。その上で、私たちは2020年で最も需要のあるプログラミング言語とその主な特徴について触れます。 JavaScript (回答者の71%がこのスキルに関する求職者を探している) Java (57%) C# (53%) Python (51%) PHP (40%) Ruby (15%)

                                                                              2020年で最も需要のあるプログラミング言語 - Qiita
                                                                            • NEC、Pythonを用いたデータ分析を高速化するソフトウェア「FireDucks」の無償提供を開始

                                                                              NEC は、プログラミング言語「Python」を用いたデータ分析において標準的に使用されているテーブルデータ分析用ライブラリ「pandas」を高速化するソフトウェア「FireDucks」を開発しました(注1)。データ分析に必要なデータの前処理を最大16倍(注2)高速化し、データ分析にかかる時間の大幅な削減とコンピューティングコストの低減に貢献します。 また本日よりFireDucksのβ版をオンライン(https://fireducks-dev.github.io/)で公開します。どなたでも無償でご使用いただくことが可能です。 近年POSやEコマース等の売り上げデータや金融取引のトランザクションデータなど、大量のデータが容易に取得できるようになりましたが、それらデータから価値ある分析結果を導き出すためには、人工知能(以下、AI)や機械学習(machine learning: 以下、ML)を使

                                                                                NEC、Pythonを用いたデータ分析を高速化するソフトウェア「FireDucks」の無償提供を開始
                                                                              • A Visual Intro to NumPy and Data Representation

                                                                                Jay Alammar Visualizing machine learning one concept at a time. @JayAlammar on Twitter. YouTube Channel The NumPy package is the workhorse of data analysis, machine learning, and scientific computing in the python ecosystem. It vastly simplifies manipulating and crunching vectors and matrices. Some of python’s leading package rely on NumPy as a fundamental piece of their infrastructure (examples i

                                                                                • 技術,野球,Pythonを続けること - DevLOVE Xで話したこと - Lean Baseball

                                                                                  縁あって,DevLOVEの十周年記念イベント「DevLOVE X」にて, 技術 野球 Python をテーマに,このブログの話をさせていただきました. devlove.wixsite.com ちなみに資料はこちらです. スライド風に読めるやつ 元ソース(Jupyter notebook) TL;DR 継続は力なり, ホームランは狙って打て⚾ ざっくり言うとそういう話でした. おしながき TL;DR おしながき 登壇のきっかけ 何を話そう? スライドをJupyter(Python)でやる この発表で言いたかったこと 継続は力なり(何があっても続ける) TO BEを目指すならホームランを狙う DevLOVE Xの感想 登壇のきっかけ 3月中旬ごろにお話をいただき, スケジュール的にも行けそうだったので条件付きでお受けしました. 出した条件は, 「主催しているもくもく会(#rettypy)を行う

                                                                                    技術,野球,Pythonを続けること - DevLOVE Xで話したこと - Lean Baseball