FlutterのAIアプリを3日で作った話

Flutter

動かして学ぶ!Flutter開発入門』という本を買ってみました。Kotlin は以前ちょっと触ったことがありましたが、Flutter (Dart) は初めてです。

Flutter はオープンソースのマルチプラットフォームの開発フレームワークで、Android、iOS、Web、Windows、macOS、Linux の6つのアプリを全く同じソースコードで開発できます。

本にMLのアプリを Firebase を使って作るセクションがあったので、やってみました。なんと Hello World から3日です。楽ちん。

アプリの機能としては、ボタンが2つあって、既にある画像のOCRと、カメラで撮影した写真のオブジェクトのラベリングができます(リンク先のような感じ)。

Firebase はいわゆる mBaaS で、アプリのサーバーサイドの機能を提供してくれるクラウドサービスです。MLのサービスは一応有料プランですが、テスト用くらいだと、よほど使いすぎなければお金はかからないです。

本は(出版されたばかりのわりに)情報が古いので、結構エラーと格闘しながらでしたが、なんとか Android 実機で動作するところまで作れました(Windows 10 と VSCode での開発)。

本から変更した点は、pubspec.yamldependencies のバージョンと、build.gradleminSdkVersiondependencies だったかな。

あとは、システム環境変数 JAVA_HOME の話とか、Windows の開発者モードをオンにすることとかは、本に書いてなかったかな……

他にもあった気がするけれど、ちゃんと記録に残していなかった。よくない。

コードは GitHub に上げてあります。

結局ソースコードを手動でいじる必要があるのは、main.dart、pubspec.yaml、ios\Runner\Info.plist、android\app\build.gradle の4つだけ。Flutter すごい。(ちなみに GPT 等の Gen AI のツールは使っていないです。)

(2023/6/1) 手順編も書きました。

コメント

タイトルとURLをコピーしました