並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 42件

新着順 人気順

クローラーの検索結果1 - 40 件 / 42件

クローラーに関するエントリは42件あります。 Pythonスクレイピングプログラミング などが関連タグです。 人気エントリには 『Twitter障害はスクレイピングではなく“自己DDoS”が原因?』などがあります。
  • Twitter障害はスクレイピングではなく“自己DDoS”が原因?

    Twitterのオーナー、イーロン・マスク氏は7月1日、Twitterでの“サービスの低下”の原因を「数百の組織がTwitterのデータを極度なレベルでスクレイピングしている」ことだとツイートしたが、原因は別のところにあるようだと、フリーランスのWeb開発者、シェルドン・チャン氏がMastodonの投稿で指摘した。 この“サービスの低下”で、多数のユーザーが投稿を読めなくなっている。マスク氏は2日、「極端なレベルのデータスクレイピングとシステム操作に対処するため」にユーザーが読める投稿数に制限を加えたとツイートした。 だがチャン氏は、異常なトラフィックの原因として、TwitterのWebアプリのバグにより、無限ループ状態でTwitterにリクエストが送信されていることを発見したと動画を添えて説明した。この動画では毎分数百件のリクエストが送信されていることが確認できる。 左の動画は、レートが

      Twitter障害はスクレイピングではなく“自己DDoS”が原因?
    • 無料Webクローラー「EasySpider」 プログラミングスキル不要、マウスクリックだけで操作可能

      このコーナーでは、2014年から先端テクノロジーの研究を論文単位で記事にしているWebメディア「Seamless」(シームレス)を主宰する山下裕毅氏が執筆。新規性の高い科学論文を山下氏がピックアップし、解説する。 Twitter: @shiropen2 シンガポール国立大学と中国の浙江大学に所属する研究者らが発表した論文「EasySpider: A No-Code Visual System for Crawling the Web」は、Excelを使用するように視覚的にWebスクレイピングタスクを設計し、実行できるカスタマイズ可能なWebクローラーシステムを提案した研究報告である。公式ページはこちら。 このシステムは、マウス操作のGUI(Graphical User Interface)を使用して提供されており、コーディングの経験がなくても使えるため、ノンプログラマーでも簡単にタスクを設

        無料Webクローラー「EasySpider」 プログラミングスキル不要、マウスクリックだけで操作可能
      • 絶対に画像をダウンロード&スクレイピングさせないWebページを本気で作ってみた - blog.potproject.net

        巷で話題になっているこの話題、画像をスクレイピングやダウンロードされたくないということで騒がれています。その話に関しては色々な意見があると思ってますがここでは置いておくとして・・・ 技術的にやるとしたら実際どれくらい対策できるの?ということが気になったので、自分の知識で出来る限り対策したものを作ってみることにしました。 最初に 賢い方はわかると思いますが、タイトルは釣りです。 絶対に画像をダウンロード&スクレイピングさせないページは存在しません。ソフトウェアにおいて絶対と言う言葉はまず存在しないのです。ブラウザで表示している以上、仕組みさえわかれば技術的には可能です。 そのため、 「元画像のダウンロードとスクレイピングを非常に困難にしたWebページを本気で作ってみた」 が実際のタイトルかなとなります。 とはいえ、この仕組みであれば大多数の人は機械的にスクレイピングすることを諦めるレベルの作

          絶対に画像をダウンロード&スクレイピングさせないWebページを本気で作ってみた - blog.potproject.net
        • Google's robots.txt Parser is Now Open Source

          The latest news from Google on open source releases, major projects, events, and student outreach programs. Originally posted on the Google Webmaster Central Blog For 25 years, the Robots Exclusion Protocol (REP) was only a de-facto standard. This had frustrating implications sometimes. On one hand, for webmasters, it meant uncertainty in corner cases, like when their text editor included BOM char

            Google's robots.txt Parser is Now Open Source
          • コワクナイWebクローリング&スクレイピング - 初心者とPython使いのための作法とノウハウ - Lean Baseball

            名著です,まじでオススメ 個人的にすごく気に入っているかつオススメな「Pythonクローリング&スクレイピング」の増補改訂版が出てました. Pythonクローリング&スクレイピング[増補改訂版] -データ収集・解析のための実践開発ガイド 作者: 加藤耕太出版社/メーカー: 技術評論社発売日: 2019/08/10メディア: 単行本(ソフトカバー)この商品を含むブログを見る 早速読みましたが,初版からのアップデートに加え元々の構成の良さに感激しました.*1 本の内容そのものの解説は, 著者である加藤さんのエントリー @iktakahiroさんの感想エントリー をご覧いただくとして*2,このエントリーでは, Webクローリングとスクレイピングはコワクナイヨ! っていう話をルール・ノウハウという「お作法」の面でポエムしたいと思います. TL;DR インターネットおよび, リアル(現実世界)に迷惑

              コワクナイWebクローリング&スクレイピング - 初心者とPython使いのための作法とノウハウ - Lean Baseball
            • Pythonの15年間見過ごされてきた脆弱性が30万件以上のオープンソースリポジトリに影響を与える可能性

              プログラミング言語のPythonで、2007年に存在が公開されたものの修正されなかったバグが再発見されました。任意コード実行可能な脆弱性にもつながるこのバグの影響は、コーディング自動化ツールを介してさまざまなプロジェクトに広まっており、修正するべきオープンソースリポジトリが35万件以上にも及ぶと指摘されています。 Tarfile: Exploiting the World With a 15-Year-Old Vulnerability https://www.trellix.com/en-us/about/newsroom/stories/threat-labs/tarfile-exploiting-the-world.html Tarfile: Exploiting the World With a 15-Year-Old Vulnerability https://www.trell

                Pythonの15年間見過ごされてきた脆弱性が30万件以上のオープンソースリポジトリに影響を与える可能性
              • クローラー運用を楽にするためのクラウドサービス比較 - ZOZO TECH BLOG

                こんにちは!最近気になるニュースはスピノサウルスの尻尾の化石が発見されたこと1な、SRE部エンジニアの塩崎です。ZOZOテクノロジーズの前身となった会社の1つであるVASILYでは数多くのクローラーの開発・運用の担当をしてきました。 今回はその知見を生かして、クローラーを楽に運用するためのクラウドサービスを紹介します。 概要 データ解析を円滑に進めるためには、CSVやWeb APIなどの構造化されたデータが必要です。しかし全てのWebサイトにあるデータが構造化データを提供しているとは限りません。むしろ提供していないケースの方がはるかに多いです。そのため、Webクローラーを作成して構造化されていないWebページを解析し、構造化データを生成する必要があります。 しかし、Webクローラーの運用には数多くの「つらみ」があります。特に大量のWebページを1日1回などの頻度で定期的にクロールする際には

                  クローラー運用を楽にするためのクラウドサービス比較 - ZOZO TECH BLOG
                • 著作権協会国際連合「日本のAI学習は権利者からの許可と報酬の支払いを条件に」文化庁に申し入れ

                  ぜんぶ翻訳 「AI と著作権に関する考え方について」への協議 CISACについて 私は、国際作家・作曲家協会連合である CISAC を代表してこの文章を書いています。 CISACは、著作者団体の世界的なネットワークとして、116カ国から225の団体が加盟しています。 CISACは、会員を通じて、音楽、演劇、文学、オーディオビジュアル、グラフィック、ビジュアル・アートなど、あらゆる芸術分野の500万人以上のクリエイターの利益を代表しています。 CISACは、「人工知能と著作権に関する協議」について、日本政府にコメントを提出する機会を得たことを嬉しく思います。 AIについて このテクノロジーは人間の創造性を高め、イノベーションを支援する一方で、クリエイターの権利や生活を脅かす存在にもなっています。 重要な問題のひとつは、テキストマイニングやデータマイニング(TDM)を含むAIの学習目的で、権利

                    著作権協会国際連合「日本のAI学習は権利者からの許可と報酬の支払いを条件に」文化庁に申し入れ
                  • 【2023年2月】プログラミング言語別単価ランキング!フリーランスエンジニアにおすすめの言語は?

                    IT業界は変化が激しく、人気の言語も時代とともに移り変わっていきます。最新の情報を追い続けるのは簡単ではないので、「将来性のある言語はどれ?」「単価が高くて稼げる言語は?」と気になっている人も多いのではないのでしょうか。 本記事では、「レバテックフリーランス」に蓄積されたデータを元に、プログラミング言語別の月単価・案件数を集計しランキングを作成しました。ランキング上位の言語については、将来性や市場価値を上げるためのポイントなども紹介しています。今回のランキングデータを元に、今後の案件選びやスキルアップの参考にしてみてください。 最新版のランキングはこちら▼ 【1位はGoの87万円】プログラミング言語別単価ランキング|2023年7月最新版 ※本記事の調査結果や画像を引用する際は【レバテックフリーランス調べ】とご記載ください。 レバテックフリーランスはITエンジニア専門の フリーランスエージェ

                      【2023年2月】プログラミング言語別単価ランキング!フリーランスエンジニアにおすすめの言語は?
                    • PHPerのための「PHPと型定義」を語り合う【PHP TechCafe イベントレポート】 - RAKUS Developers Blog | ラクス エンジニアブログ

                      弊社で毎月開催し、PHPエンジニアの間で好評いただいているPHP TechCafe。 2023年5月のイベントでは「型定義」について語り合いました。 弊社のメンバーが事前にまとめてきた情報にしたがって、他の参加者に意見を頂いて語り合いながら学びました。 今回はその内容についてレポートします。 rakus.connpass.com PHPと型 静的型付け言語 動的型付け言語 一般的な誤解 PHPの型 単一の式が持つ型 型システムで扱える型 never型について void型について self,parent,static型について resource型について evalでresource型を宣言すると リテラル型について ユーザー定義型について 複合型について 型のエイリアス mixed iterable PHPで取り入れられた型表現 型宣言のメリット PHPの歴史を振り返る PHPのドキュメント

                        PHPerのための「PHPと型定義」を語り合う【PHP TechCafe イベントレポート】 - RAKUS Developers Blog | ラクス エンジニアブログ
                      • Pythonで画像データをスクレイピング 手軽に画像収集したい方必読! - AI Academy Media

                        icrawlerとは icrawlerとはウェブクローラのミニフレームワークです。 It supports media data like images and videos very well, and can also be applied to texts and other type of files. と公式に記載があるように、画像や動画などのメディアデータをサポートしており、 テキストやその他の種類のファイルにも適用可能です。 公式マニュアル インストール Macならターミナル、Windowsならコマンドプロンプトを開き、次のコマンドを実行してください。 pip install icrawler Jpyter Notebookのセルや、Colabのセルの中では次のように実行します。 !pip install icrawler 犬と猫の画像をダウンロードする 今回はGoogle検

                          Pythonで画像データをスクレイピング 手軽に画像収集したい方必読! - AI Academy Media
                        • GitHub - google/robotstxt: The repository contains Google's robots.txt parser and matcher as a C++ library (compliant to C++11).

                          You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session.

                            GitHub - google/robotstxt: The repository contains Google's robots.txt parser and matcher as a C++ library (compliant to C++11).
                          • Web スクレイパー必携の一冊、ふたたび - 『増補改訂版 Python クローリング & スクレイピング』

                            この度縁あって『増補改訂版 Python クローリング & スクレイピング, 加藤耕太 著, 2019年, 技術評論社』(以下、本書)を技術評論社よりご恵贈賜りました。

                              Web スクレイパー必携の一冊、ふたたび - 『増補改訂版 Python クローリング & スクレイピング』
                            • 自宅の消費/発電電力量を記録しはじめてから1年経った - Datadog Synthetic Tests はじめの一歩 - えいのうにっき

                              こんなかんじで記録・確認できるようにしています 一昨年、PPAの制度を利用して自宅に太陽光発電を導入してそれなりに便利に活用していたのですが、唯一引っかかっていたのが、その実績値の確認や記録のこと。 我が家で利用しているシステムの場合、↓のようなWebサービスでそれを確認することができるんですが、 なんと、これだけしかみられなくって。 1時間単位でどれくらいの消費/発電量だったか 当月以前の過去の消費/発電量の推移はどんなだったか といったような情報は、このWebサービス単独では得ることができません。......つらい! ただ、"このWebサービス単独では" と書いたとおり、何らかの仕組み、もしくは努力によって以下のようなことをすることで、補うことはできます。 毎時間、このサイトにアクセスし、その時点での消費/発電量を取得(いわゆるスクレイピングですね)、前回アクセス時のそれらとの差分を取

                                自宅の消費/発電電力量を記録しはじめてから1年経った - Datadog Synthetic Tests はじめの一歩 - えいのうにっき
                              • 便利なPythonツールがてんこ盛り、Anacondaでスクレイピングに挑戦

                                Pythonの開発環境にはいくつかの種類があり、代表的なのが「Anaconda」(アナコンダ)だ。Anacondaの概要やインストール方法、基本的な使い方を紹介する。 Anacondaを使って、プログラムを作りましょう。Anacondaには様々なツールが同梱されており、開発するプログラムの内容に応じて、使いやすいツールを選べます。本稿では、「Anaconda Navigator」(アナコンダ・ナビゲーター)を使ってツールの一覧を確認した後に、Anaconda PromptとJupyter Notebookを使ってプログラミングを行います。 Anaconda Navigatorでツールを確認する 「Anaconda Navigator」は、Anacondaに同梱されている各種のツールを起動するためのソフトウエアです。Pythonの実行環境を管理する機能もあります。いくつかのツールはWindo

                                  便利なPythonツールがてんこ盛り、Anacondaでスクレイピングに挑戦
                                • 本番環境でやらかしちゃった人 Advent Calendar 2019〜2022 総合ランキング - Qiita

                                  すみません、すごい前置きが長くなってしまったので、ランキングの結果だけ知りたい場合は目次から飛んでください! 「本番環境でやらかしちゃった人 Advent Calendar」をご存知ですか おはようございます! 自分が好きなアドベントカレンダーに、「本番環境でやらかしちゃった人 Advent Calendar」 というのがあります。インフラエンジニアとして働く自分は、毎年こんなにもリアリティのある やらかしと学びの集大成 を「明日は我が身」だと胃を痛めながらありがたく拝見していました…。 この分野における しくじり先生 がここまで一同に介する機会というのはあまりないことから、大変マニアックながらも知る人ぞ知るアドベントカレンダーという感じになっています。 このアドベントカレンダーのいいところ ポイントは、しっかりと ポストモーテム の要素がルール化されているところだと思っています。 振り返

                                    本番環境でやらかしちゃった人 Advent Calendar 2019〜2022 総合ランキング - Qiita
                                  • 図解!XPathでスクレイピングを極めろ!(Python、containsでの属性・テキストの取得など) - ビジPy

                                    スクレイピングにおけるXPathの使い方を初心者向けに解説した記事です。 XPathとは、基本的な書き方、id・classなど様々な属性やテキストの取得方法、contains関数の使い方など要点を全て解説しています。 XPathとは XPathとは、XML形式の文書から特定の部分を指定して取得するための簡易言語です。HTMLにも使うことができます。 XPathはスクレイピングにおいて、HTMLの中から特定の情報を指定し取得するのに利用されます。 HTMLは次のようにタグと言う記号で構成されており、開始タグ、終了タグで囲まれたものを要素といいます。 上記の要素はtitleタグに囲まれていますので、titile要素と言います。 またHTMLは、1つのタグが別のタグで囲われ、というように入れ子の状態で記述されます。これらは階層構造とみなすことができます。 例えば次のHTMLについては、 このよう

                                      図解!XPathでスクレイピングを極めろ!(Python、containsでの属性・テキストの取得など) - ビジPy
                                    • Google検索のレンダリングとは?――Google Webmaster Conferenceのライトニングトークより #GWCPS

                                      [レベル: 中級] この記事では、昨日に続いて Google Webmaster Conference Mountain View でのライトニングトークをレポートします。 セッションテーマはレンダリングです。 Rendering: レンダリング レンダリングによって、ユーザーが見ているものと同じものを Googlebot が見ることができる。 [左: レンダリング前、右: レンダリング後] レンダリングは基本的には、ブラウザのように振る舞う必要がある。 複雑でコンピューティングの多くの処理を必要とする。 Chrome の機能で Googlebot はレンダリングする。 課題 レンダリングには次の 2 つの要素が必要。 Fetch(フェッチ)でコンテンツやリソースを取得 JavaScript の実行 Googlebot がフェッチし、Chrome が(JS の実行などで)レンダリングする。

                                        Google検索のレンダリングとは?――Google Webmaster Conferenceのライトニングトークより #GWCPS
                                      • GitHub - Florents-Tselai/WarcDB: WarcDB: Web crawl data as SQLite databases.

                                        You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                          GitHub - Florents-Tselai/WarcDB: WarcDB: Web crawl data as SQLite databases.
                                        • Crawlee · Build reliable crawlers. Fast. | Crawlee

                                          Crawlee is a web scraping and browser automation libraryCrawlee is a web scraping and browser automation library Reliable crawling 🏗️Crawlee won't fix broken selectors for you (yet), but it helps you build and maintain your crawlers faster. When a website adds JavaScript rendering, you don't have to rewrite everything, only switch to one of the browser crawlers. When you later find a great API to

                                            Crawlee · Build reliable crawlers. Fast. | Crawlee
                                          • 図解!PythonのRequestsを徹底解説!(インストール・使い方) - ビジPy

                                            動画教材紹介私(清水 義孝)が作成したコース「Pythonによるビジネスに役立つWebスクレイピング」(Udemyへのリンク)が発売中! 発売数8,500本突破を記念して、今だけ期間限定で87%オフの大セール中!!! Requestsとはrequestsとは、HTTP通信用のPythonのライブラリです。主にWEBスクレイピングでHTMLやXMLファイルからデータを取得するのに使われます。 インターネット上に公開されているWEBサイトでは広くHTMLやXMLが使われており、これらの情報の取得に大変便利なライブラリです。 スクレイピングは、大まかに3つのステップに分けることができます。 1つ目はWEBサイトのHTMLなどのデータ取得です。ただし、HTMLには必要な文章のデータだけでなく、タグなどのデータも混じっているので、必要なものだけを抽出する作業が必要になります。 そこで2つ目のデータの

                                              図解!PythonのRequestsを徹底解説!(インストール・使い方) - ビジPy
                                            • 図解!PythonでWEB スクレイピングを始めよう!(サンプルコード付きチュートリアル) - ビジPy

                                              Python3におけるWEBスクレイピングのやり方について初心者向けに解説した記事です。 Requests、Beautiful Soup、Selenium、Pandas、newspaper3kなどの基本的なライブラリの使い方を、サンプルコード付きのチュートリアル形式で、具体的な例を用いて解説していきます。 またこれらのライブラリについて、もし動画教材で体系的に学ばれたい方は、以下の割引クーポンをご利用いただければと思います。クリックすると自動的に適用されます。期間限定になりますのでお早めに。 >> 「Pythonによるビジネスに役立つWebスクレイピング(BeautifulSoup、Selenium、Requests)(Udemyへのリンク) WEBスクレイピングとは、スクレイピングのやり方WEBスクレイピングとは、WEBサイトからデータを自動的に取得し、必要な情報の抽出・加工などを行うこ

                                                図解!PythonでWEB スクレイピングを始めよう!(サンプルコード付きチュートリアル) - ビジPy
                                              • 画像生成AI・Midjourneyが「Stable Diffusion開発元のBOTによるプロンプトと画像の大量収集」を検知して当該アカウントを永久BAN

                                                画像生成AIを開発・運営するMidjourneyが、競合するAIのStable Diffusionを開発するStability AIの従業員が所有するアカウントを無期限で自社サービスから追放したと報じられています。Midjourneyは、Stability AIの従業員がBOTを使ってプロンプトと画像のペアを大量に取得するデータスクレイピングを行っていた疑いがあるからだと説明しています。 Midjourney bans all Stability AI employees over alleged data scraping - The Verge https://www.theverge.com/2024/3/11/24097495/midjourney-bans-stability-ai-employees-data-theft-outage Image-scraping Midjou

                                                  画像生成AI・Midjourneyが「Stable Diffusion開発元のBOTによるプロンプトと画像の大量収集」を検知して当該アカウントを永久BAN
                                                • アドレス変更ツールでエラー発生?Googleサーチコンソールvsはてなブログ問題

                                                  Nov 14, 2019 (Updated on Git: Apr 25, 2022) · 11 min read · nothing-special uncategorized · 去る2019年10月に、完全に思い付きで独自ドメインに移行したわけよ。 もう長いことデフォのはてなブログURLで運営していたから今更感満載なんだけど、 最近Google様の立て続けのアルゴリズム変更でアクセス減してるし、独自ドメイン変更のデメリットなんて無視できるんじゃね?っていうノリで。 んでんで、タイミングよく10月にリリースされたサーチコンソールの新ツール「アドレス変更」を試してみることに。 そしたら、「1 件以上の必須のテストに失敗しました。リクエストを続行できません」っていう問題発生ww なんでやねん!!ってことで、今回は試行錯誤してる中で、その解決方法の糸口が見つかった気がするのでメモ。 余計な前

                                                    アドレス変更ツールでエラー発生?Googleサーチコンソールvsはてなブログ問題
                                                  • GASを使ったWebスクレイピング

                                                    2024年3月24日GASgetContentText,Parser,UrlFetchApp,UrlFetchApp.fetch,スクレイピング Google Apps Script(GAS) を使ってWebページの情報をスクレイピングを行う方法をご紹介します。 WebスクレイピングのGASサンプルコード 下記は厚生労働省のホームページから、最新記事を抽出する処理を行うコードです。 ※実行にはParserライブラリのインストールが必要です。「Parserライブラリのインストール」で詳細を確認してください。 function myFunction() { let response = UrlFetchApp.fetch("https://www.mhlw.go.jp/index.html"); let text = response.getContentText("utf-8"); /

                                                      GASを使ったWebスクレイピング
                                                    • 【Python】Scrapyを使った、スクレイピングのチュートリアルが公開 ~ indeed.comの求人情報をスクレイピングする

                                                        【Python】Scrapyを使った、スクレイピングのチュートリアルが公開 ~ indeed.comの求人情報をスクレイピングする
                                                      • NewsPicks、著作権侵害を謝罪 写真の無断利用、新聞協会から指摘受け

                                                        ユーザベースは2月29日、ソーシャル経済メディア「NewsPicks」のアプリやWebサイトで、他の報道機関やメディアの写真を許諾を得ずに掲載し、著作権を侵害していたことを認めて謝罪した。日本新聞協会から著作権侵害の指摘を受けて精査したところ、侵害が認められたとしている。 2024年2月からは、利用許諾を得た報道機関・メディアのコンテンツのみで編成する方針に切り替えた。著作権侵害による経済的補償については、誠実に協議・対応するとしている。 NewsPicksのアプリ、Webの「ワールド」「ビジネス」「今日のニュース」「話題をまとめ読み」などのコーナーや、PC版のコメントページに、利用許諾を得ていない写真などを掲載したことが著作権侵害だったとしている。 また、NewsPicks上に掲載するために、元の写真・画像をトリミングしたことについて、同一性保持権を侵害していたと認めた。 2月から、許諾

                                                          NewsPicks、著作権侵害を謝罪 写真の無断利用、新聞協会から指摘受け
                                                        • Pythonを使って「スクレイピング」、実行環境は簡単に用意できる

                                                          スクレイピングを始める準備として、Pythonの実行環境をインストールしよう。 お薦めは、公式サイトが配布しているプログラムをインストールする方法だ。Pythonの公式サイト(https://www.python.org/)にアクセスし、「Downloads」と書かれた場所にマウスカーソルを動かす。 するとアクセスした環境に応じた最新のインストーラーのダウンロードボタンが表示される。古いバージョンや別の稼働環境向けのインストーラーが必要な場合は、OS名をクリックするとその先にあるページでダウンロードできる。 PATHの設定は要検討 ダウンロードしたインストーラーを実行する際に注意したい点が1つある。PATHの設定だ。 PATHは「環境変数」の1つ。Windowsがプログラムを実行する際に、自動的に検索するフォルダーを記述する。例えばネットワークコマンドの「ping」のファイル名は「ping

                                                            Pythonを使って「スクレイピング」、実行環境は簡単に用意できる
                                                          • 保有する株式銘柄を完全無料で一元管理する方法(超便利) - 知らなきゃ大損!お金を貯めるWeb時代の歩き方

                                                            ようこそ(^^)/ 人生を豊かに生きるためには、健康とお金がとても大切と考える当サイトの管理人ぱんぱんぱぱです。 さて、株式投資を長く続けていると、だんだんと保有する株式数が増えてはきませんか? 株式数が増えると、個別の値動きやイベントが把握できず、管理が困難になってしまいます。 現在管理人は、家族名義の証券口座を含めると、5つの証券口座を利用しています。 5つの証券口座で、60銘柄の単元株と16銘柄の端株を管理しています。 個人で76銘柄の管理は、無理です。 ぱんぱんぱぱ 頭の中はメダパニです! 管理人の場合、NISAや株主優待を最大限に活用するため、家族名義で保有する銘柄が少なくありません。 5つの口座で延べ104銘柄の管理は、破たん寸前です。 最近は、約定したことすら忘れてしまうことがあります。 www.panpanpapa.com たくさんの株式をリアルタイムで一元管理するにはどう

                                                              保有する株式銘柄を完全無料で一元管理する方法(超便利) - 知らなきゃ大損!お金を貯めるWeb時代の歩き方
                                                            • WebスクレイピングのためのCSSセレクタの基本 - ガンマソフト

                                                              Webスクレイピングでは、HTMLファイルをダウンロードし、そこからHTML要素を検索して情報を取得します。HTML要素を検索するには「CSSセレクタ」という表記方法を用います。 CSSセレクタは簡潔に記述できるので、ざっくりと要素を取り出して、後はPythonで細かな処理をすると簡単にスクレイピングをプログラミングできます。本講座でも、同様の方針で行っています。 本来、CSSセレクタはWebページのスタイルを指定するのに用いられます。デザインに用いるには、使い方に熟練を要しますが、スクレイピングでは先ほどのようにざっくりと検索できれば良いので、基本的な使い方を理解していれば大丈夫です。 そこで、今回はWebスクレイピングで「これだけ覚えておけば普通は不自由しないCSSセレクタの基本」をまとめました。ぜひ参考にしてください。 CSSセレクタ or XPath 要素を検索するにはXPathと

                                                                WebスクレイピングのためのCSSセレクタの基本 - ガンマソフト
                                                              • Pandasで超簡単!WEBスクレイピング(表・htmlのtable取得) - ビジPy

                                                                WEBスクレイピングとは、WEBサイトから情報を自動的に取得し、必要に応じて、情報の加工などを行うことです。取得したデータは、ファイルやデータベースに保存します。 WEBサイトに公開されている情報は、テキスト情報や画像、動画など様々な情報がありますが、その中の1つとしてテーブルに格納されている情報があります。 Pythonのデータ分析用ライブラリPandasではread_htmlという関数を利用して、WEBサイト上のテーブルに格納されているデータを非常に簡単に取得することができます。 また取得したデータはPandasのDataFrame(データフレーム)と呼ばれるデータ構造を利用してすぐに分析やグラフ化、データ保存することもできます。(DataFrameの詳しい説明は、こちら「Pandas DataFrameの基本」を参照ください。) これらPandasを用いたWEBスクレイピング方法は、

                                                                  Pandasで超簡単!WEBスクレイピング(表・htmlのtable取得) - ビジPy
                                                                • Google スプレッドシートでスクレイピングする方法

                                                                  それぞれ具体的に、見てみましょう。 STEP.1: Google スプレッドシートを開く まず Google Drive を開いてください。 次に左上にある「新規」をクリックし、 Google スプレッドシートを開きましょう。下図のようになれば、成功です。 STEP.2: Web サイトから抽出したい情報の XPATH を取得する 情報を抽出したい Web サイトを開きます。今回は キカガクのブログサイト から情報を抽出しましょう。 Web サイト上で右クリックして「検証」を押してください。 すると、下図のように検証パネルが出てきます。 今回はキャリア形成を支援する転職サポートを開始! という言葉を抽出しましょう。 そのために、キャリア形成を支援する転職サポートを開始! の XPATH を取得する必要があります。 XPATH とは、Web ページの様々な要素を表す住所のようなものです。XP

                                                                  • 主要なAI画像生成サービス - AI画像生成・生成系AI 問題まとめwiki

                                                                    2023年8月現在、よく利用されている画像生成AIは大きく分けて2つ。 一つはStableDiffusion系、もう一つはMidjorney(Nijijorney)である。 なかでもStableDiffusionはオープンソースで公開され、それを利用した様々な派生モデルが登場してる。 よって、関係性が非常に複雑だが、データセットが公開されていることなどから、画像生成AIの構造及び問題点を理解する上でよい例と考える。 画像生成AIはデータセットをもとに画像を生成を行う。 そのデータセットはインターネット上の画像を権利者の許諾なしにWEBスクレイピングすることによって取得したものである。 StableDiffusionに使用されているLAION-5Bデータセットには著作権で保護された画像や、医療記録、家族写真、戦争の写真等が含まれている。 日本の法律や海外のフェアユースの概念では研究目的として

                                                                      主要なAI画像生成サービス - AI画像生成・生成系AI 問題まとめwiki
                                                                    • Pythonで実装!Custom Search APIを使ったGoogle検索結果の自動収集 - システムエグゼ コーポレートサイト

                                                                      プログラミング言語のPythonは、データ分析や機械学習の領域で使われるイメージがありますが、様々なサービスのAPIを利用することも簡単にできます。 今回は、Pythonを使ってGoogleのCustom Search APIを利用し、Google検索結果を取得するプログラムを作成してみようと思います。 1.Google Custom Search APIとは Google Custom Search APIは、Googleの検索結果の情報をJSON形式で返してくれるAPIです。 ■Custom Search JSON API なお、Google検索結果を取得する方法として、Pythonでスクレイピングという手段も考えられますが、Googleは許可なく検索結果をスクレイピングすることを禁止しているようです。 そのため、スクレイピングではなく、Googleが提供しているAPIを使って検索結果

                                                                        Pythonで実装!Custom Search APIを使ったGoogle検索結果の自動収集 - システムエグゼ コーポレートサイト
                                                                      • Webスクレイピングツール7選!ノーコード・無料で高機能なおすすめを紹介

                                                                        ノーコードでWebスクレイピングができる、「ビジュアルスクレイピングツール」について主として無料かつ高機能な7つのサービスをまとめました。基本的には無料で利用することができるサービスを主としてまとめています。

                                                                          Webスクレイピングツール7選!ノーコード・無料で高機能なおすすめを紹介
                                                                        • PythonとRスクリプトの効果的な連携:データサイエンスの新しい次元へ - Python転職初心者向けエンジニアリングブログ

                                                                          データサイエンスの分野では、PythonとRスクリプトを組み合わせて使用することが一般的です。この記事では、PythonとRスクリプトを効果的に連携させ、データサイエンスの実践的な応用例に焦点を当てて解説します。 PythonとRの連携の重要性 Pythonは機械学習や深層学習などの分野で強力であり、豊富なライブラリが揃っています。一方で、Rスクリプトは統計解析やデータ可視化において優れた性能を発揮します。これらの言語を組み合わせて使用することで、データサイエンティストは幅広いツールを手に入れ、柔軟かつ効率的に分析を行うことができます。 PythonからRスクリプトを呼び出す PythonからRスクリプトを呼び出す方法として、subprocessモジュールを使用することができます。以下は、PythonからRスクリプトを呼び出す基本的な例です。 import subprocess # Rスク

                                                                            PythonとRスクリプトの効果的な連携:データサイエンスの新しい次元へ - Python転職初心者向けエンジニアリングブログ
                                                                          • Pythonで初心者でも超簡単にWebスクレイピング(newspaper3kでHTMLからテキスト抽出) - ビジPy

                                                                            WEBスクレイピングとは、WEBサイトから情報を自動的に取得し、必要に応じて、情報の加工などを行うことです。取得したデータは、ファイルやデータベースに保存します。 Pythonでは、newspaper3kというライブラリを利用して、非常に簡単にテキストデータをWEBサイトから自動的に取得することができます。 ニュースサイトやブログから、 自動的にデータを取得し保存したい。キーワードを取得して、トレンドを把握したい。自然言語処理を用いてサマリーだけを取得したい。という場合に利用すると便利です。 これを応用して、次のようなこともできます。 ニュースサイトのトップページに表示されている複数の記事を順に巡回し、ニュース記事やサマリー、キーワードをダウンロードし、後からまとめて読む。ブログ村やはてなブログなどのブログサイトや、個人ブログのトップページに表示されている複数の記事を順に巡回し、ブログ記事

                                                                              Pythonで初心者でも超簡単にWebスクレイピング(newspaper3kでHTMLからテキスト抽出) - ビジPy
                                                                            • Pythonでスクレイピングによるニュース記事の取得と保存(CSVデータ) - ビジPy

                                                                              この記事では、newspaper3kというライブラリを使ってPython初心者でも簡単にできるスクレイピングの方法を確認していきます。ここでは、ニュースサイトのトップページに表示されている複数の記事を順に巡回し、記事を取得する方法を紹介いたします。 newspaper3kのインストール方法や基本的な使い方については、以下の記事をご覧ください。リンク先の記事では、newspaper3kの基本的な使い方を理解する為、ニュースサイトから1つの記事をピックアップし、その記事の全文やサマリー、キーワードを取得しています。

                                                                                Pythonでスクレイピングによるニュース記事の取得と保存(CSVデータ) - ビジPy
                                                                              • 【2022年 | 特徴比較】オープンソースWebクローラー9選 | Octoparse

                                                                                Webクローラーとはインターネット上に公開されているテキスト・画像・動画などの情報を自動で収集し、データベースに保管するプログラムのことです。さまざまなウWebクローラーがビッグデータのブームで重要な役割を果たし、人々がデータを簡単にスクレイピングできるようにしています。 さまざまなWebクローラーの中には、オープンソースのWebクローラーフレームワークがたくさんあります。オープンソースのWebクローラーを使用すると、ユーザーはソースコードまたはフレームワークに基づいてプログラミングでき、スクレイピング支援のリソースも提供され、データ抽出が簡単になります。この記事では、おすすめのオープンソースWebクローラーを10選紹介します。 1. Scrapy 言語: Python Scrapyは、Pythonで最も人気のあるオープンソースのWebクローラーフレームワークでです。Webサイトからデータ

                                                                                • 採用担当者が開発者に求めるプログラミング言語スキルランキングトップ10、PythonがJavaScriptを超えて1位に

                                                                                  コーディング面接に使われるWebサービスなどを手掛けるCoderPadは2024年1月17日(米国時間)、「需要の高いプログラミング言語 トップ10」を発表した。ランキングは、技術者の採用担当者、人事リーダー、採用マネジャーと開発者を対象とした同社による調査「State of Tech Hiring 2024」に基づくものだ。 需要の高いプログラミング言語 TOP10 ランキングの結果は以下の通り。括弧内の数字は、その言語のスキルを持つ候補者を求める回答者の割合だ。 関連記事 2024年に人気が出る言語は? 「2023年の言語」はやはりC#に プログラミング言語の人気ランキング「TIOBEインデックス」の2024年1月版が公開された。C#が「2023年のプログラミング言語」となり、Fortran、Kotlin、Scratch、PHPもこの1年で順位を伸ばした。 2023年の言語はC#で決ま

                                                                                    採用担当者が開発者に求めるプログラミング言語スキルランキングトップ10、PythonがJavaScriptを超えて1位に

                                                                                  新着記事