CodeZine編集部では、現場で活躍するデベロッパーをスターにするためのカンファレンス「Developers Summit」や、エンジニアの生きざまをブーストするためのイベント「Developers Boost」など、さまざまなカンファレンスを企画・運営しています。
Wantedlyの開発現場で活用されている技術や手法は、日々進化するプロダクトに合わせて柔軟に変化しています。この連載では実際の開発で取り組んでいる技術や手法を、実務に使える形でお伝えしていきます。第1回はWantedlyのインフラチームが大切にしている「変化に強いインフラ」づくりについて、Kubernetesの活用方法を交えて紹介します。 はじめに 本連載は、WANTEDLY TECH BOOK 2を抜粋し、再編集したものになります。第1回と第2回の担当は、Wantedly インフラチームの坂部(@koudaiii)です。第1回である本記事では「変化に強いインフラはWantedlyにとってなぜ必要か」「これまでどのように変化に強いインフラに取り組んできたのか」といったことを中心にご紹介します。第2回では、例として架空のサービスを実際に作る上での手順を紹介する予定です。 変化に強いインフラ
本連載では、Raspberry Pi(ラズベリーパイ)で動く移動ロボットキットである「GoPiGo」を使って、遠隔見守りロボットを作る手順をご紹介します。前回は、スマホを使ってGoPiGoを操作する方法を解説しました。今回は、クラウドを経由して、遠隔地からGoPiGoを操作する手順を解説します。 はじめに 連載の第3回に引き続き、Raspberry Piで動作する小型ロボット「GoPiGo」を使って、遠隔見守りロボットを作っていきます。 前回は、自宅などのローカルエリアネットワーク内で、GoPiGoのスマホを使った遠隔操作を行いました。今回は、間にクラウドを挟むことで、インターネット越しにGoPiGoを操作できるようにしたいと思います。 今回のゴール 今回、作成するネットワークのイメージを、連載の第1回で示した図を基に示します。今回の作業で、最初に示した機能のうち、スマホに通知を送る以外の
AI技術に注力しているDeNAでは、環境の構築・運用における課題を解決するため、クラウドを積極的に活用しています。また、データ分析基盤においてもさまざまな内製ツールを展開し、日々の作業を効率化しています。「Developers Summit 2017」で行われた、株式会社ディー・エヌ・エー 瀬尾直利氏のセッションでは、DeNAにおける機械学習基盤とデータ分析基盤の取り組みとそこで生まれた極意、活用しているツールなどが紹介されました。本記事ではその内容についてレポートします。 講演資料 DeNA AIシステム部におけるクラウドを活用した機械学習基盤の構築 DeNA流データエンジニアリングの極意 Triglav - Data Driven Workflow Tool 「次世代の事業の柱」を目指し、柔軟な機械学習基盤を構築 現在DeNAでは「次世代の事業の柱」にすることを目指し、AI技術、特にデ
しかし、開発推進セクションとしてリーダーを中心に「基本的には必須ですが、相談には乗ります」と伝えてきました。もちろん、こちらとしても妥協することはありますが、基本は書いてもらうように言い続けたことは良かったと思います。今ではテストケースは2,000ケース以上となり、毎日jenkinsからもallTestの結果が送られてくるようになったのですから。そんなやりとりをしていく中で、こんなFAQも生まれました。 Q:巨大なメソッドで1行だけ修正したのですが、そのメソッド内をすべてテストしないといけないの? A:基本はテストしてください。 ただしトラブル対応など、どうしてもすぐにリリースしないといけない場合はその限りではありません。 結果的にこのようなFAQは、開発メンバーにJUnitの導入を受け入れてもらうために必要なことだったと思います。やはり、開発スピードを重視するチームにとって、やることが多
作成するアプリケーションは以前紹介したTODO管理のアプリケーションと同様のアプリケーションですので、実際の各登録機能などの説明は省略します。ただし、ngRouteモジュールの使い方だけではなくSPAのアプリケーションを作成する際に発生する関連する課題なども合わせて紹介します。 対象読者 jQueryなどを使っている開発者 JavaScriptを使った複数人でのプロジェクトに参加している方 JavaScriptを使ってサーバ等と連携したフロントエンドの開発をしている方 必要な環境 この記事では、AngularJS(バージョン1.4)を使用し、Chrome(44.0)、IE11、Firefox(40.0)、Safari(8.0.7)の環境にて確認を行っています。また、サンプルコードではデザインのためにBootstrap(バージョン3.3.5)とjQuery(2.1.4)を使用しています。 な
機械学習(ほぼ)初心者が、Webアプリケーションを作ったキッカケ 本記事では、機械学習の(ほぼ)初心者である筆者が、TIS株式会社の5daysインターンシップ「機械学習を用いたWebアプリケーション開発」に参加した際に開発したWebアプリケーションについて紹介します。筆者は、学部で情報工学の基礎を学び、現在は都内国立大学大学院に通う大学院生です。これまでにWebアプリケーションの開発経験はなく、機械学習も「なんとなくイメージはできる」程度の理解でした。今回は、開発にPythonを用いました。Pythonの使用経験は2年弱でしたが、機械学習を実装するのは初めてでした。 開発したアプリケーションのソースコードは、GitHubで公開していますので適宜参照してください。 5daysインターンシップとテーマ設定 今回のインターンシップでは、機械学習技術を活用したWebアプリケーションを開発するという
対象読者 AngularJSを使っている開発者 JavaScriptのフレームワークの動向などに興味を持っている方 必要な環境 この記事では、AngularJSを使用し、Chrome(42.0)、IE11、Firefox(37.0)、Safari(8.0.4)の環境にて確認を行っています。 バージョン1.4では何がかわるのか バージョン1.4での大きな特徴として、以下の変更がある予定です。 新しいRouter機能(ngNewRouter) より柔軟なクッキー機能($cookies) $parseや$compileのパフォーマンス改善 $httpサービスにおけるパラメータシリアライズ方式の柔軟性強化 ICU MessageFormatに対応したAngularJS式の利用 基本的には過去のソースコードが動かなくなるような変更はあまりなく、内部ハックをしているような開発者を除けば、既存のソースコ
PyData.Tokyoは「Python+Dataを通じて、世界のPyDataエクスパートと繋がれるコミュニティーを作る」ことを目的として設立され、これまでに勉強会3回およびチュートリアル1回が開催されました(過去のイベントのリスト)。4回目の勉強会となる今回は「データ解析アルゴリズムの高速化」をテーマに、株式会社ブレインパッドの佐藤貴海さん(@tkm2261)とシルバーエッグ・テクノロジー株式会社の加藤公一さん(@hamukazu)の2人に話していただきました。 登壇者のレベルの高い講演に加え、ヤフー、日本IBM、NTTデータ、AWS、Gunosy、Preferred Networksなど、第一線で活躍されている非常に質の高い聴講者にも参加いただき、大変充実した会になりました。 Pythonは書きやすい言語仕様と豊富なライブラリが特徴で、手軽に複雑なデータ分析を行えますが、他言語と同じ感
はじめに Hadoopを使って大規模データを蓄積し分析するのは、もはや当たり前になってきた昨今ですが、大規模データ分析の環境を試すのは、なかなか難しいというのが現状です。確かに、Hadoop単体やSQLエンジン単体なら、Amazon EMRやGoogle BigQueryなどを使うことで体験することは可能でしょう。しかし、大規模データの分析基盤では以下のようなことを行っていく必要があります。 RDBMSからデータをHadoopにインポートする SQLを使って、大規模データを高速に分析する アクセスログなどの大量の非構造化データを分析する 大量のデータに対し、リコメンドに利用するための高度な分析処理を行う 大量のデータを全文検索できるようにする これらすべてを試す環境を構築するのは、たとえクラウド環境を使ったとしても困難です。また、(検証環境としては)意外と高額な費用がかかってしまい、永続化
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く