タグ

ブックマーク / shu223.hatenablog.com (13)

  • 技術書でご飯は食べられるのか? #技術書典 - その後のその後

    昨日開催された技術書典5にて、新刊「実践ARKit」と既刊「Metal入門」という2冊の技術書を販売してきました。これまで商業出版も含め何度か技術書を書いてきて、「技術書に儲けを期待してはいけない」1と思い込んできましたが、昨日一日の売り上げは約46万円(詳細は後述)。もしかしたら技術書を書くこと自体でそれなりに稼げる時代が来つつあるのかもしれない・・・と考えを改めました。 (技術書典5。自分のブースからの光景) 自分の書籍の中身やイベントがめちゃくちゃ楽しかったという話は記事ではいったん置いておいて、そんな「お金」の面について具体的な数字、気付きなどを書いておきたいと思います。 1日の売り上げ詳細 実践ARKitとMetal入門、どちらも製版+電子版のセットで2000円で販売しました。どっちが何冊売れたかはちゃんと数えてないのですが、だいたい3:1ぐらいでARKitのほうが多かった感

    技術書でご飯は食べられるのか? #技術書典 - その後のその後
    asyst
    asyst 2018/10/10
  • サンフランシスコで就職して1年が経ちました - その後のその後

    昨年9月28日に『フリーランスを休業して就職します』という記事を書いてサンフランシスコの会社に就職し、早1年が経ちました。 実際にはもう1年と2ヶ月ほど経ってまして、この2ヶ月間、何度も記事を書こうと思いテキストエディタを開きつつ、まとめきれずに途中で断念・・・ということを繰り返してました。ブログ記事1つにまとめるには多くのことがありすぎました。 レイク・タホに別荘を借りて会社のみんな(とそのファミリー)で連休を過ごしたり、同僚の帰省(ミズーリ州)についていってサンフランシスコとは全く違うアメリカを体験したりといった「楽しい思い出」もあるし、英語について色々と試行錯誤したり学んだりしたこともあるし、会社でどんな感じで仕事してるか/現地でどう生活してるかというのもあるし・・・ということを書いてると永遠にまとまらなそうなので、記事では「入社を決めた当初の目的に対しての達成度はどうか」というあ

    サンフランシスコで就職して1年が経ちました - その後のその後
    asyst
    asyst 2017/11/20
  • それでもCourseraの機械学習コースをオススメする理由 - その後のその後

    先日、オンライン学習サイトCourseraの機械学習コース "Machine Learning by Stanford University" を修了しました。 Machine Learning - Stanford University | Coursera (感動のエンディング動画) ただ、機械学習に興味があって情報収集を始めてる人にとって、「Courseraの機械学習コースがおすすめですよ」という話は 「はい、知ってます」 という感じではないでしょうか。 僕もそんな感じで、幾度となく人や記事に同コースを薦められたりしつつ、たぶん2年ぐらいスルーし続けてきたと思います。 しかし約2ヶ月前、ひょんなきっかけから講座を始めてみて、やはり評判通り最高だったと思うと同時に、僕と同じような感じでこのコースが良いらしいと知りながらもスルーし続けてる人は多いんじゃないかと思いまして、(おせっかいな

    それでもCourseraの機械学習コースをオススメする理由 - その後のその後
    asyst
    asyst 2017/02/08
  • 「プログラマとして食べていく」という話を福井県の学生さん達にしてきました - その後のその後

    一昨日、福井県の「ふくい産業支援センター」さんが主催されたセミナーで、標題の講演をさせていただきました。資料はこちら。 参加者約70名のうち、75%は18歳以上の大学生・専門学校生、15%が高校生・高専生、10%が小中学校。これまでエンジニアの中で話をする機会は多々ありましたが、学生さんばかりの中で話すのは初めてでした。 内容 内容としては、「プログラミングでこんな感じでメシをってる人がいる」という一つの参考例として自分の働き方を紹介しつつ、プログラマとしてとりあえずやっていけるようになるまでの話と、フリーになってからおもしろい仕事を得るためにどんなことを考えながら働いているか、の3部構成でした。 50分と長尺の講演だったので、最後にFAQをくっつけて時間調整できるようにしておいたのですが、6つぐらい用意しておいたうち2つぐらいしかしゃべれず。話したうちのひとつは「お金の話」だったのです

    「プログラマとして食べていく」という話を福井県の学生さん達にしてきました - その後のその後
    asyst
    asyst 2016/07/12
  • Swiftで書かれた人工知能・機械学習ライブラリ「Swift-AI」をiOSで動かしてみる - その後のその後

    全編Swiftで書かれたオープンソースの人工知能機械学習ライブラリが出てきました。その名も「Swift-AI」。 https://github.com/collinhundley/Swift-AI デモが入っていて、こんな感じで手書き文字認識してくれます(詳細は後述します)。 今のところ iOS と OS X をサポート しているとのこと。MITライセンス。 できること README の Features を見ると、2016年1月現在、フィードフォワード(順伝播型)ニューラルネットワークと、高速行列演算ライブラリはできあがっているようです。 それぞれドキュメントがあります。 https://github.com/collinhundley/Swift-AI/blob/master/Documentation/FFNN.md#multi-layer-feed-forward-neural-

    Swiftで書かれた人工知能・機械学習ライブラリ「Swift-AI」をiOSで動かしてみる - その後のその後
    asyst
    asyst 2016/01/24
  • GitHub経由で海外から仕事が来た話 - その後のその後

    はじめて海外から(フリーランスとして)仕事をいただく、という貴重な経験ができたので、その経緯などを書いてみたいと思います。 きっかけ 7月末のある日、知らないメールアドレスから英語のメールが来ました。内容を一部だけ抜粋すると、 We are looking for someone to develop a very simple apple watch app and a companion apple phone app. というわけで、Apple Watch アプリをつくって欲しい、とのこと。内容を読むと加速度センサとジャイロを使いたいそうで、必然的に watchOS 2 案件になりそうです。 メールには明記されてませんでしたが、GitHub で公開している watchOS-2-Sampler を見て連絡くれたのかなと。(※もちろん面識はなく、共通の知り合いもいないので、これ以外にわざ

    GitHub経由で海外から仕事が来た話 - その後のその後
    asyst
    asyst 2015/08/16
    かっこいい
  • オープンソースになった ResearchKit の中身を見てみる - その後のその後

    昨日、Apple が ResearchKit フレームワークのソースコードをまるっと GitHub で公開しました。 https://github.com/ResearchKit/ResearchKit ここで「おお ResearchKit!!・・・って何だっけ・・・?」ってなった方も実は多いのではないでしょうか。僕はすっかり忘れててググって思い出したのですが、 医療に携わる科学者が研究のために、必要なデータを集めることができるフレームワーク というやつです *1。 Apple の新しいフレームワークのソースコードが公開されるという機会もなかなかないので、中身を見てみました。 試してみる 何はともあれ何ができるのか体感するためにも、まずは動かしてみたいところ。 さっそくリポジトリから git clone して Xcode で開いてみると・・・ フレームワークとドキュメント用のSchemeし

    オープンソースになった ResearchKit の中身を見てみる - その後のその後
    asyst
    asyst 2015/04/16
  • iOSと機械学習 - その後のその後

    ビッグデータとかの機械学習隆盛の背景にある文脈や、その拠り所となるコンピュータの処理性能から考えても「モバイルデバイス向けOSと機械学習を紐付けて考えようとする」ことはそもそもあまり筋がよろしくない・・・とは思うのですが、やはり長くiOSだけにコミットしてきた身としては、新たに興味を持っている機械学習という分野と、勝手知ったるiOSという分野の交差点はないのかなと考えずにはいられないわけでして。。 そんなわけで、「iOS と機械学習」について雑多な切り口から調べてみました。 iOSで使える機械学習ライブラリ DeepBeliefSDK コンボリューショナルニューラルネットワークを用いた画像認識ライブラリ。iOSとかのモバイルデバイスで処理できるよう、高度に最適化してある、OpenCVと一緒に使うのも簡単、とのこと。 https://github.com/jetpacapp/DeepBeli

    iOSと機械学習 - その後のその後
    asyst
    asyst 2014/12/12
  • 機械学習はじめの一歩に役立つ記事のまとめ - その後のその後

    機械学習」というワードになんとなく惹かれつつも、具体的にやりたいことがあるわけでもないので、手を動かすことなくただひたすら「いつかやる」ために解説記事やチュートリアル記事を集める日々を過ごしていたのですが、このままじゃイカン!と Machine Learning Advent Calendar 2014 - Qiita に参加登録してみました。 が、やはり何もしないまま当日を迎えてしまったので、お茶濁しではありますが、せめて「機械学習ってどんな手法やライブラリがあって、どんな応用先があるのか?」というあたりをざっくり把握して最初に何をやるのか方向付けをするためにも、たまりにたまった機械学習系の記事をいったん整理してみようと思います。 機械学習の概要 特定のライブラリや手法の話ではなく、機械学習全般に関する解説。 機械学習チュートリアル@Jubatus Casual Talks 機械学習

    機械学習はじめの一歩に役立つ記事のまとめ - その後のその後
    asyst
    asyst 2014/12/10
  • 開発者向け公開情報から見る iOS 8 の細かい新機能8つ - その後のその後

    今まさに開催中のWWDC2014のキーノートでは、Swift、HealthKitHomeKit、Metal、Extensions と、iOS 8 の言語レベル、新規フレームワークレベルでの大きな新機能について発表されましたが、従来フレームワークにもいろいろと有用な機能が追加されています。 例年のWWDCではそれらはNDA下にあり正式リリースまで話題にすることはできなかったのですが、今年はAppleがいろいろと情報を公開してくれている(ログイン不要で見れるようになっている)ので、それらの情報リソースから、「これは嬉しい」と思った機能をいくつか挙げていきます。 ※Xcode 6 はNDA下にあるため、実行結果には言及しないようにしています。 UIVisualEffectView クラスリファレンスを見ると、 init(effect effect: UIVisualEffect!) というメソ

    開発者向け公開情報から見る iOS 8 の細かい新機能8つ - その後のその後
  • Web コンテンツ内にネイティブ iOS アプリを埋め込めるサービス『app.io』の使い方 - その後のその後

    app.io は、『ブラウザ内でネイティブ iOS アプリを動かせるようにする』サービスです。 イメージとしてはiOSシミュレータをそのままWebコンテンツに埋め込める と考えるとわかりやすいかもしれません。タップ等のインタラクションが効いて、もちろん通信もします。アプリのランディングページや、ブログの紹介記事に埋め込んだりすると良さそうです。 で、「導入にはさぞ複雑な手順が。。」と思いきや、実際にアプリを動作させるまでの手順はめちゃくちゃ簡単です。 ファイルを1つアップするだけ。 以下で具体的に説明します。 導入手順 1. アプリをビルド いつもの普通のビルドです。Xcode でターゲットとして 「シミュレータ」を選択 し、ビルドします。 2. .appファイルをアップロード "Upload Your App" から、 下記パスにある .app ファイルを zip で固めて アップロード

    Web コンテンツ内にネイティブ iOS アプリを埋め込めるサービス『app.io』の使い方 - その後のその後
  • 【iOS7】フラットデザインUI実装に役立つライブラリのまとめ - その後のその後

    iOS7で採用されたフラットデザインっぽいUIを、現行iOS(〜6.x)で実装する際に役立つOSSをまとめました。後半ではiOS7っぽく下のビューをブラーかけて半透過表示するライブラリや、パララックス表示するライブラリも紹介しています。 * English version of this article ※(2013年7月17日追記)9点追加し、カテゴリ毎に分類しました。 総合 FlatUIKit フラットデザインなUIコンポーネント詰め合わせ。ソースをみると、ほとんどのコンポーネントが該当するUIKitコンポーネントのカテゴリやサブクラスとしてつくってあって、使いやすそうです。 FlatUI 同様にUIコンポーネント詰め合わせですが、かなりiOS7に似せてつくられている点が特長です。 UI7Kit iOS5, iOS6 で iOS7 の見た目を実現するUIKitのサブクラス集。 iPho

  • UIKit で物理演算エンジンを使用する - その後のその後

    cocos2d や Unity などのゲームエンジンや openFrameworks では、標準で物理演算エンジンがサポートされていて手軽に扱えますが、ビューを作成したり画像を表示したりといった基的な部分の実装方法や、ものによっては使用言語も違うため、「物理演算エンジンを使用したい」というだけの場合はかえって導入障壁が高くなる場合もあります。 それらを使用せず、UIKit ベースでの iOS アプリケーションに物理演算エンジンを単体で導入する方法、すなわち UIView オブジェクトを剛体として物理演算に基づいて動かす方法を紹介します。 準備 1. Box2D のソースをダウンロード 適当なフォルダで、次のように svn の checkout を実行します。 svn checkout http://box2d.googlecode.com/svn/trunk/ box2d-read-on

    UIKit で物理演算エンジンを使用する - その後のその後
  • 1