当サイトはAmazonなど一部広告より収入を得ています

いつでも好きな本について語れる!AI読書会アプリを作った【Antigravity開発】

AI & テクノロジー

AI読書会アプリとは?

読書をしたあと、「誰かとこの感想を語り合いたい!」と思ったことはありませんか?今回は、そんな読書好きの悩みを解決するWEBアプリケーション「AI読書会アプリ」を制作しました。

人間同士の読書会では社会人や学生さん、定年後の方などいろいろな属性の方が集まるため、話がバッチリ合うことの方が稀ではないかなと思います。

読書会の参加体験などを見ても、そのあたりで苦労されているようなところが多そうだと感じます。今回そういった悩みを少しは解消できるかも、と制作したのが「AI読書会アプリ」です。

このアプリは、GoogleのLLMであるGemini APIを活用し、設定の異なる3人のAIキャラクターと本の内容についてチャット形式で存分に語り合えるアプリケーションです。開発にあたり苦労した点などまとめました。

最終的にはGoogle AI APIですと制限が多かったため、ローカルLLMへの移行を検討するなどしました。

個性豊かな3人のAIキャラクター

システムプロンプトの工夫によって、AIたちに明確なペルソナを与えています。以下の3人があなたの読書会を盛り上げます。

  • 桜庭 美咲(21歳・大学生):現代小説やミステリーが好き。明るく共感力が高く、感情豊かなリアクションをくれます。
  • 藤原 誠一郎(52歳・ベテラン編集者):歴史的背景や著者の意図など、ベテランならではの深い洞察を与えてくれる頼れる大人です。
  • エミリー・ハートフィールド(29歳・日本文学研究者):時折英語を交えながら、比較文学的な独自の視点で新しい読書の気づきを提供してくれます。

上の画面のようにチャットをしているような感じで会話ができます。上の画像文字が小さいかと思いますが、SF小説「三体」についての会話で、私が第2部のラストの展開が好きだという話をしたら、他の参加者も同意して会話を広げっていってくれています。

ちゃんと小説の内容も理解して会話されることに驚きです。他の作品もいろいろ試してみましたが、しっかりと会話が成立していました。AIの学習状況にもよりますので明確にいつ以降の作品とは言えませんが、恐らく最新作(数か月以内)は対応ができないと思います。

ローカル環境に置くだけでサクッと動く「AI読書会」

AI読書会アプリは、ユーザー自身が取得した「Gemini APIキー」をブラウザ上の設定画面から入力する仕組みになっています。そのため、複雑なサーバー構築は不要。ローカル環境で同梱のbatファイルを実行するだけで、すぐにブラウザ上で動作します。APIキーはローカルに保存されるためセキュリティ面も安心です。

問題が発生!API制限で会話が続かない

役割(ロール)を与えられたAIたちがお互いの意見を補完し合うことで、まるで本当に複数の人と読書会をしているかのような体験を生み出すことができました。

良い感じで出来たなと満足していたのですが、少し会話を進めるとエラーが発生するようになりました。Google AI studioのAPIでLLMと接続しているのですが、時間単位のリクエスト制限にかかってしまい、少ししか会話ができませんでした。

APIへのリクエスト数は契約しているプランや、APIの従量課金が利用可能かにより変わってきますが、本格的にAI開発をしている方以外は、すぐにAPI制限にかかってしまう状況です。

そこで、サーバーにリクエストすることをやめて、自分のPC上で動作するローカルLLMに方針変更しました。

API制限という「鎖」を断ち切り、思考の連続性を確保する

今回、推論エンジンにOllama、LLMモデルにはつい先日追加された最新モデル、Google Gemma-4(GGUF版)を採用しました。

会話のレスポンスを早くするため、軽量版のE4Bを採用しました。

これで、複数のキャラクターが同時に、かつ無制限に発言し続けることができます。APIの従量課金やリクエスト頻度を気にすることなく、一晩中AIたちと議論が可能です。

Gemma-4 × Ollamaが実現する、ネットに依存しない知的探求

特筆すべきは、今回採用したGemma-4の日本語能力の高さです。軽量でありながら文脈を読み解く力に優れており、キャラクターごとの個性を維持した対話が可能になりました。

ローカルで動作していますが、最初に試したAPI接続での会話と遜色ありません。

また、Express(Node.js)によるプロキシ構成を導入したことで、フロントエンドからのリクエストを安定してOllamaへ橋渡しできるようになりました。

これにより、インターネット接続が一切ない状況で「AI読書会」を起動できる環境が整いました。

まとめ:Gemma4は優秀だがレスポンスは落ちる

今回のAPI接続からローカルLLMへ移行して、会話の精度は保ったままAPI制限を気にせず利用できるようになりました。しかし、クラウドAIでは環境に依存せず最高のレスポンスが得られますが、ローカルLLMは端末の性能に依存するため、お手軽さではなかなかクラウドAIには敵わないです。

会話レスポンスを高めようと、さらに軽量なモデルもいくつか試しましたが、本の内容への認識が薄かったり、内容を理解していない状態で、知ったかぶりをしている人のような会話しか得られませんでした。

今後も新しい軽量なローカルLLMが登場した際には、入れ替えてみて「AI読書会」アプリのさらなるパワーアップを狙っていきたいと思います。

皆さんも、自分だけのローカルAI環境でいろいろなアプリ構築にチャレンジしてみてはいかがでしょうか。

タイトルとURLをコピーしました