EEIC3年生にRISC-Vの仕様書渡して「はい10日間の間に一人でプロセッサ作ってベンチマークスコア競おうね」なスパルタ実験…のはずが最終日には多くがMモジュール拡張済で,パイプラインは最適化され,分岐予測は2level ada… https://t.co/9Cjgn474Cm
ウクライナ・キエフ近郊で、子どもを抱えて川に架かったパイプの上を歩く兵士(2022年3月31日撮影)。(c)RONALDO SCHEMIDT / AFP 【4月1日 AFP】ロシアのウクライナ侵攻開始から36日目を迎えた3月31日、キエフ東郊ブロバルイ(Brovary)地区の前線で、ウクライナ兵士が幼い女の子を抱きかかえ、細いパイプラインの上を渡っていた。 カロリーナ・トカチェンコ(Karolina Tkachenko)ちゃん(3)の家族は、黒焦げになったロシア軍の装甲車が散乱する平原を1時間歩いて、自宅のある村から逃げて来たところで最後の難関に直面した。 広い川に橋はなく、水面から3メートルほど上に架かっているガスパイプラインを約50メートル歩いて渡るしかない。パイプの幅は50センチ程度しかなく、足をかけるとぐらぐらする。 兵士に抱かれたカロリーナちゃんが無事に渡り終え、反対側にいた兵士
目次は以下の通りとなっています。 Apache AirflowとはApache Airflowによるワークフローの定義と実行Apache AirflowとはWorkflow as a Codeという言葉が、Airflowを表すのに最も適していると思います。各タスク(Operator)の依存関係をPythonで記述することで、その依存関係通りにタスクを実行してくれます。「依存関係通りの実行」というとジョブスケジューラーが思い浮かびますが、ジョブの場合は実行順序が固定的です。Airflowではコード上の依存関係を変更することでいわば動的にジョブを生成することが可能です。 コードの変化に追随し動的にワークフローを生成する、という点がAirflow最大の特徴になると思います。動的だと実際どう実行されるのか心配、という感じもしますがGUIのツールが付属しており構築されたワークフローを参照することが可
Kubernetesの上で機械学習を実装するためのツール、Kubeflowを紹介する。今回、素材として使うのはCNCFが2020年2月28日に公開したWebinarの動画だ。CNCFはKubernetesのSIG Runtimeのミーティングの動画にもKubeflowに関するコンテンツを収録している。これはCNCFが、Kubeflowを機械学習の実装に要する大きなコストを吸収できるツールとして期待していることのあらわれであろう。 動画:Webinar: From Notebook to Kubeflow Pipelines with MiniKF & Kale これは「From Notebook to Kubeflow Pipelines with MiniKF & Kale」と題して行われたもので、機械学習の実行に必要な周辺のタスク、データの準備やワークフローの作成など、実際に機械学習を
予測モデルなどを構築するとき、パイプライン化することがあります。 もちろん、探索的なデータ分析でも、パイプラインを使いながら実施することもあります。 例えば、Rなどでは伝統的に、パイプラインを使いながら探索データ分析をします。しかし、そうでなければならないというわけでもありません。 一方で予測モデルは、機械学習パイプライン化したほうが、分かりやすいですし扱いやすいです。 今回は、「予測モデルは機械学習パイプライン化しよう(Python)」ということで、PythonのScikit-learn(sklearn)を使い、パイプラインの構築の仕方について簡単に説明します。 パイプラインとは? 「パイプライン」というキーワードは、色々な分野で使われています。今回の「パイプライン」(pipeline)は、「パイプライン処理」と呼ばれるコンピュータ用語です。 パイプライン処理とは、複数の処理プログラムを
今回は、2021年5月に発生した米国の大手石油パイプライン企業であるColonial Pipeline(コロニアル・パイプライン)に対するサイバー攻撃事件について取り上げたい。 コロニアル・パイプラインは、テキサス州ヒューストンとニューヨークの間、ガソリンなどの燃料を輸送する長さ約8850kmにも及ぶ米国最大のパイプラインを運用する民間企業である。1日250万バレルの燃料を運び、米国東海岸の燃料供給の約45%を担っている。 このような米国社会を支える重要インフラが、サイバー攻撃により5日にわたって操業停止に追い込まれる事態となってしまった。事件当時は、多数のガソリンスタンドでパニック買いに走る消費者により在庫不足が発生するなど混乱が広がったと報じられている。攻撃を受けた同社にとどまらず、米国の経済活動や社会生活に多大な影響を与えることとなった。 このサイバー攻撃は、犯罪者グループDarkS
CRMチームのyktakaha4です。 みなさま、消費増税対応お疲れ様でした…! 今日は、前回のブログでお伝えした荷札生成APIの続編として、 エンジニアサイドの運用上の課題を解決するためにGitHub Actionsを導入した話についてお伝えします。 荷札生成APIは、東急ハンズのECサイトであるところのハンズネットの出荷業務にて、DBに格納されている注文情報を元に梱包後のダンボールに貼り付ける荷札や商品明細の印字データをPDF形式で出力するもので、実装としてはServerless Frameworkを用いてLambda関数を定義しています。 Serverless Frameworkには、定義ファイルからLambdaをパッケージングしてAWS環境にデプロイしてくれるdeployというコマンドがあり、こいつは大変便利ですごいやつなのですが、 deployコマンドを実行する環境そのものまで用
東京都の小池知事は、地球温暖化対策を話し合う国連の「COP27」の会合で、都内に水素のパイプラインをつくる構想を明らかにした。 小池知事「東京都は、海外で作られたグリーン水素を受け入れるためのパイプラインをつくる構想があります」 小池知事は、エジプトで開かれている「COP27」のハイレベル会合に出席し、海外のグリーン水素を受け入れるため、都の臨海部にパイプラインを敷設する考えを示した。 グリーン水素は、EU(欧州連合)など海外でも活用に向けた動きが活発になっているが、再生可能エネルギーを使って作るため、価格が高いなどの課題もある。 小池知事は、また訪問先のエジプトで、安倍元首相の日エジプト関係への貢献を評価して2022年2月に完成した「シンゾー・アベ道路」などを視察した。
2019年07月31日15:00 日本の経済報復に続き、米国が韓国に関税爆弾…韓国産パイプラインに最大39%賦課=韓国の反応 カテゴリ韓国の反応ニュース 635コメント 韓国のポータルサイトネイバーから、「日本の経済報復に続いて、米国の関税爆弾…韓国産パイプラインに最大39%賦課」という記事を翻訳してご紹介。 日本の経済報復に続いて、米国の関税爆弾…韓国産パイプラインに最大39%賦課 2019.07.31|6:06 米国が韓国産のパイプラインに最大39%に達する反ダンピング関税を課すことにした。米中貿易紛争と日本の対韓輸出規制措置で難しい境遇に置かれた韓国の貿易にとって、別の負担になる見通しだ。 30日、業界によると、米国商務省は14日、韓国産のパイプラインの鉄鋼製品に対する反ダンピング関税年次再審で、ネクスチールに38.87%、セア製鋼に22.70%の関税を課すことを決定した。これ以外の
AWS sam pipelineを使うとLambdaをデプロイするCI/CDパイプラインをどうやって作ればいいか分かりそうになるAWSsamCodePipelineCodeBuild 背景 Lambdaをgit管理して単体テストに通ったらデプロイってどうやるんだろうみたいなことができる。 概要 AWS SAMにはsam pipelineというコマンドがあり、これを使うことでパイプラインを自動で作ってくれる。 出来上がるステージとしては CodeCommit -> CloudFormation (パイプライン自体の設定デプロイっぽい) -> CodeBuild テスト (オプション) -> CodeBuild デプロイ(sam deploy) sam pipelineではmainブランチに対してはデプロイ環境が二つできてしまう(上記のsam deployを行うステージが2回ある)が、作るべき
連載の6回目となる今回は、前回に引き続きTFXを使ってKubeflow上で動かす機械学習パイプラインを構築していきます。 はじめに 前回は、TFXを使った機械学習パイプラインの構築のうち、「モデル学習」と「チューニング」で利用するTFXコンポーネント解説や実装を行いました。「実装編」の3回目である今回は、前回作成したモデルの検証と出力で利用するTFXコンポーネントの解説や実装を行い、モデル開発のパイプラインを完成させます。 機械学習パイプラインの構築(ハンズオン) 本稿では、機械学習パイプラインのうち「モデル作成」の最後のステップとなる「モデル検証」と「学習済みモデル」の出力について解説します。 赤枠の部分が本稿の範囲となり、黒枠の部分は実装済みであることが前提となります。前回作成したモデルを検証するステップとパイプラインの最終的な成果物となるモデルを出力する処理をパイプラインに組み込んで
「Red Hat OpenShift on IBM Cloud」によって、CI/CD(継続的インテグレーション/継続的デリバリー)パイプラインの構築はどれほど簡単になるのか?:IBM Champion for Cloud 2019が評価 IBMのソリューションやソフトウェアに対し、そのテクニカルコミュニティーにおいて高度な貢献をしたエンジニアを表彰する制度「IBM Champions」。今回はIBM Champion for Cloud 2019に選出された平岡大祐氏に、その知見・ノウハウを体感できる記事を執筆していただいた。昨今のDXトレンドなどについて聞いたショートインタビューとともに、3回にわたって「Red Hat OpenShift on IBM Cloud」の実践的な活用方法をお届けする。最終回はOpenShiftを使ったCI/CD(継続的インテグレーション/継続的デリバリー)に
アメリカ最大の石油パイプラインにランサムウェア攻撃を行ったサイバー犯罪集団「DarkSide」が、「所有していた仮想通貨を何者かによって未知の口座に送金されてしまった」として、店じまいを宣言しました。 DarkSide Ransomware Gang Quits After Servers, Bitcoin Stash Seized – Krebs on Security https://krebsonsecurity.com/2021/05/darkside-ransomware-gang-quits-after-servers-bitcoin-stash-seized/ 情報によると、DarkSideが身代金の支払いを拒否した企業から盗んだデータを公開していたブログや、身代金受け取りやグループ内の金銭移動に用いていたサーバー、DOSサーバーなどへのアクセスができなくなり、その数時間後に
","naka5":"<!-- BFF501 PC記事下(中⑤企画)パーツ=1541 -->","naka6":"<!-- BFF486 PC記事下(中⑥デジ編)パーツ=8826 --><!-- /news/esi/ichikiji/c6/default.htm -->","naka6Sp":"<!-- BFF3053 SP記事下(中⑥デジ編)パーツ=8826 -->","adcreative72":"<!-- BFF920 広告枠)ADCREATIVE-72 こんな特集も -->\n<!-- Ad BGN -->\n<!-- dfptag PC誘導枠5行 ★ここから -->\n<div class=\"p_infeed_list_wrapper\" id=\"p_infeed_list1\">\n <div class=\"p_infeed_list\">\n <div class=\"
北欧のフィンランドは、バルト海の海底を通ってヨーロッパの天然ガス供給網をつなぐパイプラインが損傷し、稼働を停止したと発表しました。何らかの外部活動が原因とみて捜査を進めています。 10日、フィンランド政府の発表によりますと、フィンランドとバルト三国のエストニアとを結ぶ天然ガスの海底パイプライン「バルチックコネクター」が損傷し、稼働を停止したということです。 あわせて通信ケーブルも損傷が確認されました。 このパイプラインを通じてフィンランドはヨーロッパの天然ガス供給網につながっています。 フィンランドのオルポ首相は10日の会見で、「損傷は外部活動の結果とみられる」と述べ、捜査を進めていることを明らかにしました。 天然ガスのパイプラインの修理には数か月間かかるということですが、LNG=液化天然ガスの貯蔵施設があるため、エネルギー供給への影響は小さいとしています。 フィンランドはロシアのウクライ
データパイプライン構築ツールであるXplentyはクラウドサービス間でのデータ連携が可能です。処理がWebブラウザ上で完結するため、素早く手軽に処理が可能なところも魅力的です。そんなわけで本エントリではXplentyとSalesforceを連携する方法をご紹介します。 もくじ Xplentyとは Salesforceとの連携方法 Connectionを作成する Packageを作成する Jobを実行する まとめ Xplentyとは Xplentyはクラウド型のデータパイプライン構築ツールです。ETLやELTのデータ処理をブラウザよりGUIベースで構築可能で、クラウドサービス間でのデータ連携に強みを持っています。 以下URLより7日間の無料トライアルで実際に操作を試せます。 Xplentyを無償トライアルで試してみよう Salesforceとの連携方法 XplentyではSalesforce
【書き起こし】Dataflow Templateを活用した宣言的なデータパイプライン – 永井 洋一【Merpay Tech Fest 2021】 Merpay Tech Fest 2021は、事業との関わりから技術への興味を深め、プロダクトやサービスを支えるエンジニアリングを知れるお祭りで、2021年7月26日(月)からの5日間、開催しました。セッションでは、事業を支える組織・技術・課題などへの試行錯誤やアプローチを紹介していきました。 この記事は、「Dataflow Templateを利用した宣言的なデータパイプライン」の書き起こしです。 永井洋一氏:それでは「Merpay Tech Fest 2021」ということで「Dataflow Templateを利用した宣言的なデータパイプライン」という題で、永井から発表させていただきます。 まず、簡単に自己紹介をさせていただきますと、私はメル
Amazon Web Services ブログ AWS Step Functions の Distributed Map と再実行機能を使用した効率的な ETL パイプラインの構築 AWS Step Functions は、完全マネージドのビジュアルワークフローサービスで、AWS Glue、Amazon EMR、Amazon Redshift などのさまざまな抽出・変換・読み込み (Extract, Transform, Load; ETL) テクノロジーを含む複雑なデータ処理パイプラインを構築できます。個々のデータパイプラインタスクを繋ぎ、ペイロード、リトライ、エラー処理を最小限のコードで構成することで、ワークフローを視覚的に構築できます。 Step Functions は、データパイプライン内のタスクが一時的なエラーで失敗した場合、自動リトライとエラー処理をサポートしていますが、アクセ
こんにちは!AWS事業本部コンサルティング部のたかくに(@takakuni_)です。 本エントリは、re:Invent 2022で開催されたWorkshopである「Deploy a CI/CD pipeline with Amazon CloudFront」のセッションレポートになります。 CloudFrontを前段に置いた複数の環境に対してのCICDパイプラインの構成をAWS CDK, AWS CloudFormationでデプロイするセッションになりました。 セッション概要 In this workshop, learn how to pair Amazon CloudFront with AWS developer tools like AWS CodeCommit, AWS CodeBuild, and AWS CodePipeline to build a CI/CD pipel
背景 PyTorchでHugging Face Transformersを使って自然言語処理を行うとき,文章をモデルに入力するためにはまず単語単位に分かち書き (tokenize) しなければなりません. この前処理が思ったよりもやっかいなのです. 事前学習済みのモデルをTransformers公式から提供されているものから選んでしまえば,ここはあまり問題になりません.Transformers付属のtokenizerを使って一発で分かち書きできるからです. 実際,東北大からTransformersを通じて日本語BERT事前学習済みモデルが公開されて久しいので,日本語BERTモデルを使うのはだいぶ楽になりました. huggingface.co しかし,別の事前学習済みの日本語BERTモデルで,Transformersのプラットフォームに載っていないものはいくつか存在します. これらのモデルを
※この投稿は米国時間 2020 年 3 月 7 日に、Google Cloud blog に投稿されたものの抄訳です。 Kubernetes がコンテナ オーケストレーションのデファクト スタンダードになりつつあるなかで、多くの開発チームはコードの構築、テスト、および Kubernetes へのデプロイをすばやくスムーズに行う方法を模索しています。クラウド ネイティブ環境向けに設計されていない従来の継続的インテグレーションおよび継続的デリバリー(CI / CD)ツールは機能が十分でないことが多く、開発者はデプロイの自動化に適したベスト プラクティスの模索、パイプラインのスケーリング、実装に関するその他の詳細の検討に多くの時間を費やしています。 Kubernetes を使い始めたばかりのチームにとっては時間がかかるうえにエラーが発生しやすい作業も多く、作業がさらに複雑になります。そうした作業
背景 現在開発にかかわっているプロダクトの機能開発において、マイグレーション処理が必要なPRのマージをするときにステージング環境へのマイグレーション作業を自動でおこないたかった アサインされた当時の計画 指定フォルダにマイグレーション用のファイルが追加されたことを検知する gcloudコマンドでsecret Managerからデータベースにパスワードを取得 ステージング環境のCloudSQLに接続するためにcloudsql-proxyを起動(このときはdocker runで最新のコンテナイメージを取得し、軌道までを行っていた) sql-proxyのコンテナを通じてcloud sqlに接続を試みるが失敗 詰まったところ1:CircleCI上でcloudsql-proxyの起動がうまく行かなった。 公式ドキュメントを参考に以下のコマンドを実行するJobを作成しても Unable to load
アメリカ最大級のパイプラインが外部からサイバー攻撃を受けガソリンなどの供給を一時的に停止したと明らかにしました。 運営会社はシステムを外部と遮断し復旧を急いでいます。 サイバー攻撃を受けたのはアメリカ南部テキサス州から東部にガソリンなどを供給する「コロニアル・パイプライン」です。 会社側の発表によりますと、5月7日、外部からサイバー攻撃を受けたためシステムを外部と遮断してガソリンなどの供給を停止し、現在、復旧を急いでいるということです。 コロニアル・パイプラインは長さが9000キロ近くに達するアメリカ最大級のパイプラインの1つで、南部テキサス州から一大消費地のニューヨークなどがある東部にガソリンやジェット燃料などを供給しています。 供給を受ける利用者側に被害の情報はなく、いずれの製品も備蓄があることなどから、これまでのところ大きな影響は出ていません。 会社側はサイバー攻撃は身代金を要求する
翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。 CodePipeline でパイプラインに手動の承認アクションを追加する CodePipeline パイプラインのステージに承認アクションを追加した個所でパイプラインを停止することで、このアクションを手動で承認または拒否できます。
こんにちは、CX事業本部 Delivery部の若槻です。 本日、クラスメソッド開催のこちらのイベントに「AWS CDK on CI/CD パイプライン」というタイトル登壇させていただきました。 AWS CDK でシステムをデプロイできるようになったら、次にやりたいのは各環境へのデプロイ処理の自動化です。 今回は GitHub Actions を使って AWS CDK の CI/CD パイプラインを構築する際のポイント(CI および CD の実行タイミング、権限の最小化、環境変数の設定など)についてお話します。 AWS CDK という技術特化のイベントでしたが、多くの方に参加いただき、懇親会でも参加者と弊社社員とで AWS CDK についての密度の濃い意見交換を交わすことができました。 登壇資料 私の登壇資料はこちらです。 AWS CDK による CI/CD パイプラインを GitHub A
このnoteはマーケター、またはマーケティングに興味のあるビジネスマンや学生の方向けのコラムです。現在42歳、若い頃からスケボーやサーフィンなどを行ってきた「レッドブル寄り」なマーケターであった筆者が、レッドブル VS モンスターエナジー の日本市場の需要を分析して、現状を理解したことをきっかけに、食わず嫌いしていたモンスターエナジーの「パイプラインパンチ」を飲み、同商品のマーケティング戦略を考察をした読み物です。(※最後に、マーケター向け研修の告知もさせて頂いております) 自己紹介 (株)秤 代表の小川と申します。セールスプロモーション業界で4年、電通グループなどの広告会社の営業、プランナーとして10年強。データ分析を軸にしたコンサルティング支援で3年強。マーケティング戦略から戦術まで幅広く関わってきました。2018年11月には「Excelでできるデータドリブン・マーケティング」とい
※この投稿は米国時間 2021 年 4 月 8 日に、Google Cloud blog に投稿されたものの抄訳です。 編集者注: この投稿は、Google Cloud での市場データの処理に関する特別シリーズの第 2 部です。今回は、サーバーレス コンポーネントをどのように活用して、柔軟性の高いデータ取り込みパイプラインを構築したかに焦点を当てます。クラウドでのリアルタイムな市場データの可視化については、最初の投稿をご覧ください。 資本市場企業は、無限にあるリアルタイム データセットから迅速に分析情報を抽出する必要があります。企業の市場データのパイプラインは、主要な設計上の考慮事項としてエンドユーザーのデータアクセス要件を検討する必要があるものの、硬直化したデリバリーのメカニズムと分析ツールがこの目標を阻害します。サーバーレス データは、最適な新しいツールの導入時に運用上の障害を取り除く
","naka5":"<!-- BFF501 PC記事下(中⑤企画)パーツ=1541 -->","naka6":"<!-- BFF486 PC記事下(中⑥デジ編)パーツ=8826 --><!-- /news/esi/ichikiji/c6/default.htm -->","naka6Sp":"<!-- BFF3053 SP記事下(中⑥デジ編)パーツ=8826 -->","adcreative72":"<!-- BFF920 広告枠)ADCREATIVE-72 こんな特集も -->\n<!-- Ad BGN -->\n<!-- dfptag PC誘導枠5行 ★ここから -->\n<div class=\"p_infeed_list_wrapper\" id=\"p_infeed_list1\">\n <div class=\"p_infeed_list\">\n <div class=\"
G-gen の杉村です。 Google Cloud (旧称 GCP) には Cloud Workflows という簡易的なワークフローツールがあります。今回の記事は Cloud Workflows を使った簡易的なデータパイプラインの構築方法をご紹介します。 はじめに Cloud Workflows とは 関連記事 この記事で作るもの 概要 SQL 実行方法 1 - BigQuery API Connector SQL 実行方法 2 - Scheduled Query Scheduled Query の呼び出し方 ワークフローの作成 フロー図 Cloud Functions 関数 yaml ファイル 実行の流れ ワークフローのデプロイ ワークフローの実行 留意事項 はじめに Cloud Workflows とは Cloud Workflows は Google Cloud (旧称 GCP)
この記事は「本番環境でやらかしちゃった人 Advent Calendar 2021 」8日目の記事です。 本当はもっと前に書こうと思っていたんですが、毎年忘れていて結局今年に供養となってしまいました。 僕がまだWeb系駆け出しの頃のお話です。 皆様が同じ轍を踏まないように共有します。 ざっくり言うと 複数の要因が重なって本番環境をサービス提供不可能にしてしまいました。 以下懺悔 事件現場 当時稼働していたサービスはこのような感じです。 ご覧の通り、CDのパイプラインはなくローカル環境での手動ビルド & 手動デプロイとなっています。 3年ほど前、Kubernetesがかなりトレンドで「当社でもナレッジ蓄積の一環でやってみよう」ということでこのような構成なっています。 (会社にCTOと僕の2人しかいなかったのでそんな感じのノリで決まりました。) ただし、今回お話しする話はKubernetes環
哈喽大家好、コンサルティング部の西野です。 Amazon Transcribe を利用して、自己学習のための中国語文字起こしパイプラインを作ってみました。 解決したかったこと 筆者は趣味として日常的に中国語のコンテンツに触れています。 主に観ているものは映画・ドラマ・中国人YouTuberの動画・抖音 (中国版 Tiktok) などであり、これらのコンテンツのほとんどには普通话 (中国における標準語) の字幕がついています。字幕のおかげもあって、文字通りの意味を取るだけなら特に困ることがない状態です。 このまま単なる趣味に据え置くなら今のままでも良いのですが、最近は「せっかく勉強したのにもったいない!もう少し脳に負担がかかるコンテンツを使ってレベル上げをしたい!」と思うようになりました。 そこで目をつけたのが NHK WORLD RADIO JAPAN News の Chinese New
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く