タグ

iOSに関するcrexistのブックマーク (35)

  • [swift] scenekit / テクスチャをNodeにRepeatして貼り付ける方法 - Bluebear I/O: 技術備忘録

    テクスチャを使用しないでタイル調の模様の床を作成するコードは、こちらで紹介したが、 やはり、テクスチャをリピートしてタイル調の床を作成してみたい。 使用したテクスチャはこちら↓ そんな時は下記のコードで実現することができる。 override func viewDidLoad() { super.viewDidLoad() //カメラなどの環境設定は省略 setupFloor(scene: scene) } func setupFloor(scene:SCNScene) { //マテリアルを作成 let Material = SCNMaterial() //テクスチャ画像を指定 Material.diffuse.contents = UIImage(named: "art.scnassets/floor.png") //横方向にRepeat Material.diffuse.wrapS =

    [swift] scenekit / テクスチャをNodeにRepeatして貼り付ける方法 - Bluebear I/O: 技術備忘録
  • ARKit 1.5で画像認識ができるようになりました。 - Toyship.org

    先日、iOS 11.3のベータがリリースされました。 ARKitがアップデートされて、ARKit1.5となり、画像認識や垂直面の認識などができるようになりました。 (この記事は、公開されている情報に基づいて書いています。) ARKit 1.5 ARKit1.5でのアップデート内容はこちらです。 垂直面の平面認識の追加 ARKit内での画像認識 ビデオ系処理の改善 それぞれの項目についてみてみましょう。 垂直面の平面認識 今までのARKitでも平面認識はできましたが、認識できたのは床などの水平面だけでした。 ARKit1.5からは、壁などの垂直面も認識できるようにになりました。 コードでみてみましょう。 まず、Xcodeで新規プロジェクトを選び、Augmented Reality App を選択します。 このプロジェクトはデフォルトでARが使えるようになっているので、初期設定を変えるだけで平

    ARKit 1.5で画像認識ができるようになりました。 - Toyship.org
  • ARKitを使いつつカメラの制御がどこまでできるか調べてみた - Qiita

    はじめに みなさま、あけましておめでとうございます 昨年末にARKitに関する記事を投稿しましたが、その続きとして、ARKitを使いながらAVFoundationのようなカメラ制御も同時に行うことができるか?というテーマで調査を行いました。 何をやりたいのか? AR処理を行いつつ、裏でカメラ画像を使って画像処理や画像認識処理を行いたい。 ARKitが提供する水平面検出や特徴点認識を併用できると面白いことができそう? AVFoundationで可能な解像度設定やフォーカス設定などの高度なカメラ設定も行いたい。 解決する必要のある課題 ARKitを使ってカメラのフレームバッファを取得する方法はあるか? ARKit使用時にカメラ解像度の変更を行うことができるか? ARKit使用時にオートフォーカス関連の設定を行うことができるか? ARKitを使って端末を動かしていると、焦点が合わなくなることがあ

    ARKitを使いつつカメラの制御がどこまでできるか調べてみた - Qiita
  • CALayerで3Dグラフィックス? - terazzoの日記

    ちょっと3Dグラフィックスやってみようかと思って、もしかしたら座標変換のライブラリはないかとドキュメントを見ていたら、Core Animationの関数を使ってアフィン変換・透視変換とかできる上に、そのまま描画もできるらしいということが分かった。 Core Animationプログラミングガイド: レイヤジオメトリと変換 Core Animationプログラミングガイド: Core Animationレイヤの配置 やってみた結論としては、がっつり3DやるならやっぱりOpenGLとか使った方が良いと思う。けど、簡単な図形や画像をちょっと俯瞰っぽく見せたい、ぐらいなら使えるかも。 ちなみにOSバージョンはSnow Leopard(10.6.6)です。 追記: これで立体迷路アプリ作ってみた 準備1. CocoaのクラスにCALayerを貼付ける とりあえず適当なサイズのウィンドウを表示させてC

    CALayerで3Dグラフィックス? - terazzoの日記
  • iOS で SceneKit を試す(Swift 3) その4 - SceneKit の構造 - Apple Engine

    SceneKit の要 Scene Graph SceneKit はシーングラフというツリー状の構造で画面構成をつくり3DCGを表示してい る。 シーングラフの起点は SCNScene が起点となり、ルートノードがぶら下がる。 ルートノードから複数のチルドノードを設定する事ができて、各ノードにカメラやライトやオブジェクトを設定できる。 上の図では、チルドノードにカメラとライトとジオメトリしか書かれていないが、 パーティクルなど他の要素ある。 また、チルドノードにチルドノードを追加し、さらに階層を深くもできる。 ゲームテンプレートと同じようなものをつくる Single View Application のテンプレートから以前作成した SceneKitゲームテンプレートの状態にコードで書いてみる。 下準備 Xcode を開き、新規プロジェクト作成(command + shift + N)

    iOS で SceneKit を試す(Swift 3) その4 - SceneKit の構造 - Apple Engine
  • [iOS 11] 画像解析フレームワークVisionで顔認識を試した結果 | DevelopersIO

    Vision この記事ではiOS 11 SDKから利用可能なフレームワークのVisionについて解説します。Vision は、高性能な画像解析フレームワークであり、オブジェクトの検出・追跡・分類などに対応しています。 この名称は、画像処理に関する研究分野Computer Visionに由来しています。 iOS 11ではCore MLというフレームワークも新たに登場しました。こちらはML(Machine Learning:機械学習)に特化したフレームワークで、VisionのバックグラウンドではCore MLが利用されています。つまりVisionは機械学習のうち、画像処理に特化したフレームワークであると言えるでしょう。 Core MLに関しては こちらの記事 をご覧ください。 機能 以下、WWDC17においてVision に関するキーノートで紹介された機能です。 顔検出 画像内に存在する顔を検

    [iOS 11] 画像解析フレームワークVisionで顔認識を試した結果 | DevelopersIO
  • [iOS 11][Vision] QR コードを検出する | DevelopersIO

    Vision で QR コードを読み取る 今回は iOS 11 からの新フレームワーク Vision を利用して QR コードを読み取ってみようと思います。 Vision の概要に関しては以下の記事をご覧ください。 [iOS 11] 画像解析フレームワークVisionで顔認識を試した結果 実行動画 QR コードを検出すると画面中央にその内容を表示するアプリを作りました。 どういうわけかプログラムを実行しながらの動画撮影が上手くできませんでした。 画像処理で負荷がかかっているため処理落ちしているのでしょうか? 実際はスムーズに QR コードが検知できているので、その動作を見てみたい場合は以下を参考にアプリを作成してみてください。 サンプルコード ほとんどは以前書いたコードの流用です。 変更点のみを記載します。 private var textLayer: CATextLayer! = nil

    [iOS 11][Vision] QR コードを検出する | DevelopersIO
  • GitHub - shu223/ARKit-Sampler: Code examples for ARKit.

    You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session.

    GitHub - shu223/ARKit-Sampler: Code examples for ARKit.
  • iOS で SceneKit を試す(Swift 3) その41 - Scene Editor カメラの Depth of Field(被写界深度) - Apple Engine

    カメラとなる SCNCamara で被写界深度のシミュレーションを行う。 実際のカメラと同様に距離でオブジェクトにピントを合わせて、 他がボケるさせる効果の設定を行う。 ちなみに、今回紹介するすべてのプロパティが macOS, tvOS, watchOS でも廃止予定で、 iOS 11 など最新の OS からはカメラのシミュレーションに近い、焦点距離 (focusDistance) と F値 (fStop) で行う。 Scene Editor の パラメーター Blur Radius ピントがあっていないもの(被写界深度の外のもの)に対してボケ具合の最大値を設定する。 0 以上にしないと被写界深度のシミュレーションが行われない。 デフォルト値は 0.0。 Distance ピントを合わせたいものまでの距離。焦点距離。 デフォルト値は 10.0 Aperture レンズの口径を表す。 値を大

    iOS で SceneKit を試す(Swift 3) その41 - Scene Editor カメラの Depth of Field(被写界深度) - Apple Engine
  • 公式ドキュメントを追いながらARKitを試してみよう - Qiita

    0. はじめに WWDC2017始まりましたね。 Keynoteで発表され、なによりも話題になったのがARKit。早速試していきたいのですがもちろんまだまだ日語の情報は少ないです(QiitaではなぜかUnityで使う方法が先にあがっていますね...) というわけで公式のドキュメントを参考に、早速ARKitを動かしてみようというのが今回の趣旨です。 環境はもちろんのことXcode9 betaです。 有料デベロッパーアカウントでないとインストールできない(?)ようなので気になる人はアプリをリリースしている人に頼み込んでみましょう。 今回のコードはこちらです。(ARKitSCNSampleがSceneKitの、ARKitSKSampleがSpriteKitの、ARKitMetalSampleがMetalのサンプルになっています。) touyou/ARKitSample 1. ARことはじめ〜S

    公式ドキュメントを追いながらARKitを試してみよう - Qiita
  • ARKit 1.5 で Vuforia のような画像認識を行う - Apple Engine

    ARKit 1.5 から Vuforia のような画像認識を行うことができるようになった。 壁や床などの画像を想定しているようなので、現象 Vuforia ほどの正確さはなく、 今後のアップデートで期待したい。 また、公式でサンプルが用意されているため、英語を読むのが苦にならない方は、公式の方を読んでもらった方が良いと思われる。 Recognizing Images in an AR Experience | Apple Developer Documentation ひとまず注意点 Beta 版であるため今後仕様が変更される可能性がある Beta 版の Xcode 9.3 使用するため iOS Developer Program 加入している必要がある 端末カメラを使用するため iOS 11.3 をインストールした実機が必要がある Beta 版なので認識がおかしくなることがある 今回は動

    ARKit 1.5 で Vuforia のような画像認識を行う - Apple Engine
  • iOS で SceneKit を試す(Swift 3) その25 - ビルトインジオメトリ SCNPlane(平面) - Apple Engine

    奥行き 0 の縦状態がデフォルトの平面のジオメトリで、角を丸くすることができる。 このビルトインジオメトリは、デフォルトでマテリアルがポリゴンが両面描画される。 裏面が必要ない場合は Material Inspector(Command + Option + 5)> Setting > Double sided のチェックを外す。 また、表面を Y 軸プラス方向に向けたい場合は X軸を -90 傾ける Scene Editor でのパラメーター オブジェクトライブラリの Plane を Scene Editor にドラッグ&ドロップして、Attributes Inspector を開く(Command + Option + 4) 1番上の Plane の項目で設定値が変更できる Size 幅と高さが設定できる。 初期値は 1。 Corner radius 角丸の大きさ 初期値は 0。 値が

    iOS で SceneKit を試す(Swift 3) その25 - ビルトインジオメトリ SCNPlane(平面) - Apple Engine
  • ARKit + SceneKit でカメラから取得した映像にエフェクトをかける - Apple Engine

    ARKit Advent Calendar 2017 | 15日目 以下の昨日の記事の動画。 前半では ARKit で取得しているカメラ映像に対して Core Image のフィルター CIDotScreen を使用し、 新聞のモノクロ写真のようなモノクロドットや黒の塗りつぶしで構成された効果を適応しており、 こちらのご紹介。 来は Metal を使用したり、SceneKit の SCNTechnique などを使うべきだが、 今回の処理でも許容範囲かつ実装が簡単なのでこちらを選択した。 (Metal 直で処理した方が速いと思われるのと、負荷がかからないはずなので、頑張れる方は頑張ってほしい) 流れ 昨日の記事で紹介しているように ARKit のシーンの背景は、 iOS 端末の背面カメラである iSight or iSight Duo カメラから取得している映像(画像)を渡している。 デ

    ARKit + SceneKit でカメラから取得した映像にエフェクトをかける - Apple Engine
  • Drawing Images From Pixel Data - In Swift

  • Transforming a rectangle image into a quadrilateral using a CATransform3D