『動かして学ぶ!Flutter開発入門』という本を買ってみました。Kotlin は以前ちょっと触ったことがありましたが、Flutter (Dart) は初めてです。
Flutter はオープンソースのマルチプラットフォームの開発フレームワークで、Android、iOS、Web、Windows、macOS、Linux の6つのアプリを全く同じソースコードで開発できます。
本にMLのアプリを Firebase を使って作るセクションがあったので、やってみました。なんと Hello World から3日です。楽ちん。
アプリの機能としては、ボタンが2つあって、既にある画像のOCRと、カメラで撮影した写真のオブジェクトのラベリングができます(リンク先のような感じ)。
Firebase はいわゆる mBaaS で、アプリのサーバーサイドの機能を提供してくれるクラウドサービスです。MLのサービスは一応有料プランですが、テスト用くらいだと、よほど使いすぎなければお金はかからないです。
本は(出版されたばかりのわりに)情報が古いので、結構エラーと格闘しながらでしたが、なんとか Android 実機で動作するところまで作れました(Windows 10 と VSCode での開発)。
本から変更した点は、pubspec.yaml
の dependencies
のバージョンと、build.gradle
の minSdkVersion
と dependencies
だったかな。
あとは、システム環境変数 JAVA_HOME の話とか、Windows の開発者モードをオンにすることとかは、本に書いてなかったかな……
他にもあった気がするけれど、ちゃんと記録に残していなかった。よくない。
コードは GitHub に上げてあります。
結局ソースコードを手動でいじる必要があるのは、main.dart、pubspec.yaml、ios\Runner\Info.plist、android\app\build.gradle の4つだけ。Flutter すごい。(ちなみに GPT 等の Gen AI のツールは使っていないです。)
(2023/6/1) 手順編も書きました。
コメント