はじめに
こんにちは! HealthCare Innovation Group(HIG)1所属の橋本です。
本記事は、夏の自由研究ブログ連載2023の1本目です。
夏の風物詩であるカブトムシやクワガタを識別するミニアプリを作りました。
夏の自由研究ブログの連載があると聞いて、せっかくなら夏っぽい題材にしたいなと、私が小さい時にたくさん捕まえていたカブトムシを題材にしようと考えました。
「Swiftと機械学習あたりを絡めて何かできないかな?」と考えたところ、CreateMLという様々な機械学習モデルをGUIで作ることができると知ったため、カブトムシやクワガタの画像を学習させたモデルを使ったミニアプリを作ることにしました。
今回は、作成したミニアプリをもとに、CreateMLの使い方について紹介したいと思います。
作成したカブトムシ・クワガタを分類するミニアプリ
目次
- CreateML、CoreMLとは
- CreateMLを使ってカブトムシ・クワガタを識別するモデルの作成からアプリへ実装まで
- 学習データ、テストデータを用意する
- 識別モデルを作成
- アプリへ実装する
- 最後に
CreateML、CoreMLとは
CreateMLとは、Appleが提供する機械学習のフレームワークの1つで、機械学習モデルを作成するツールです。また、このCreateMLで作成したモデルを実際にiOSアプリなどで使用ために使われるフレームワークとしてCoreMLがあります。簡単に説明すると、
- CreateMLが機械学習モデル(画像認識、オブジェクト認識、音声認識、文字認識など)を作成するもの
- CoreMLが作成したモデルを様々な実際にアプリに組み込むもの
というイメージで問題ないと思います。
以下のApple公式の機械学習に関するページにて、それぞれの説明が記載されています。
https://developer.apple.com/jp/machine-learning/
CreateMLの説明文の引用です。
Create MLアプリでは、コードを書かずにMac上でCore MLモデルをすばやく構築およびトレーニングすることができます。使いやすいアプリのインターフェイスとトレーニング向けに利用できるモデルにより、プロセスがこれまでになく簡単になり、トレーニングデータさえ用意すれば開始できます。モデルのトレーニングと正確性を可視化する手助けとして、スナップショットやプレビューといった機能でトレーニングプロセスをコントロールすることもできます。Create MLフレームワークおよびCreate ML Componentsを使用すると、モデル作成をより細部まで詳細にコントロールできます。
CoreMLの説明文の引用です。
Core MLなら、アプリに機械学習モデルを容易に組み込むことができる上、Appleデバイス上で目を見張るほど速いパフォーマンスを実現します。Core MLのAPIを使うと、構築済みの機械学習機能をアプリに追加することができます。またはCreate MLを使って、カスタムCore MLモデルをMac上で直接トレーニングすることも可能です。他のトレーニングライブラリからのモデルをCore ML Toolsを使って変換したり、すぐに使えるCore MLモデルをダウンロードしたりすることもできます。Xcodeで直接、モデルをプレビューしてそのパフォーマンスを把握することも簡単です。
CreateMLを使ってカブトムシ・クワガタを識別するモデルの作成からアプリへ実装まで
まず、CreateMLを使って、カブトムシ・クワガタを識別する機械学習モデルを作成していきます。
こちらのページに学習済みのCoreMLが組み込まれたサンプルコードがあるため、こちらの中のMobileNetV2
(画像識別のモデル)を使用してミニアプリを作成していきます。
https://developer.apple.com/jp/machine-learning/models/
環境は、次のとおりです。
実装環境
- macOS: Ventura 13.4.1(c)
- Xcode: Version 14.3.1 (14E300c)
学習データ、テストデータを用意する
4種類のカブトムシ・クワガタの画像を用意します。
学習データが100枚、テストデータが20枚それぞれ用意し、以下のフォルダ階層のように準備します。
フォルダ階層
├trainingData |
(飼育経験のあるこの四種類を分類することにしてみました)。
識別モデルを作成
CreateMLをXcode
> Open Developer Tool
> CreatML
をクリックし、ウィンドウを開きます。
先程用意したtrainingDataフォルダを以下の”+”部分に、ドラック&ドロップで追加します。
追加されると、次のようになります。
左上のTrain
を押下すると、渡したデータをもとに学習が始まります。
数秒で学習が完了し、以下のように学習時の様子がTrainingタブ
で確認できます。
これで機械学習モデルの作成自体は完了です。
作成したモデルが未知のデータをどれほどの精度で分類できるか評価する方法として、学習時に使用していないテストデータを渡すことができます。CreateML上での実施方法は、Evaluationタブでtraining時と同様に、Testing dataにテスト用のデータをドラック&ドロップで追加します。
今回の四種類のカブトムシ・クワガタの分類精度は、ノコギリクワガタが50%をわずかに下回っているが、4分類であることを考えると何もパラメータチューニングをしていない割に、オオクワガタ(giantStagBeatle)は65%とまずまずの精度となっていました。
画像中のMetrics
Class | Count | Correct | FP | FN | Precision | Recall | F1 Score |
---|---|---|---|---|---|---|---|
SawTooth StagBeatle |
20 | 9 | 10 | 11 | 47% | 45% | 0.46 |
Miyama StagBeatle |
20 | 10 | 6 | 10 | 62% | 50% | 0.56 |
Giant StagBeatle |
20 | 15 | 8 | 5 | 65% | 75% | 0.7 |
beatle | 20 | 9 | 7 | 7 | 59% | 65% | 0.62 |
CreateMLで今回作ったモデルをCoreML Model形式(.mlmodel
)として取得します。
Outputタグに移動し、右上のGetから、beatleAndStagBeatlesClassifier.mlmodel
を任意の場所に保存できます。
アプリへ実装する
こちらのサイト上部のdownloadからサンプルコード(Vision+Core-ML.xcodeproj
)を落としてきます。
https://developer.apple.com/documentation/vision/classifying_images_with_vision_and_core_ml
サンプルコードのVision+Core-ML.xcodeproj
プロジェクトを開き、識別時に使用している分類器をMobileNet.mlmodel
からbeatleAndStagBeatlesClassifier.mlmodel
に修正します。
具体的には、ImagePredictor.swift
の中の MobileNet.mlmodel
からbeatleAndStagBeatlesClassifier.mlmodel
に書き換える対応のみを行います。
class ImagePredictor { |
これで学習させたモデルで撮影した画像が『カブトムシ』か『〇〇クワガタ』かを識別できます。
作成したカブトムシ・クワガタを分類するミニアプリ(再掲)
(これを使えば、道端で遭遇したカブトムシ・クワガタの種類がわかるようになる?)
最後に
今回は、CreateMLをつかって機械学習モデルを作ってみることができました。しかし、分類精度はあまり良くなかったため、細部までチューニングができるCreate ML Componentsを使用してモデル作成を行ってみたい思います。
今後もSwift周りで学習した内容を投稿していきたいと思いますので、その際もお読みいただけると嬉しいです。