LLM

記事

Gemini 1.5 flash でjson回答の受け取り

Gemini 1.5 flashで回答されるテキストをjson(dict)構造に限定する話。簡単にできる割にはあまり知られていないと思います。
記事

環境構築すら不要なllamafileでローカルLLM(phi-3)

爆速でローカルLLMを利用できるllamafileを試しました。ダウンロードするだけでローカルLLMが利用できるのは最高のメリット。ローカルLLMにはphi-3を使ってみました。
記事

GodotでLLMを使いたい(llama.cpp)

GodotでローカルLLMを使う方法をまとめました。llama.cppをサブプロセスとして実行する方法を取りました。
記事

CPUのみのローカルLLMサーバー構築(llama.cpp)

CPUのみを使ったローカルLLMサーバーをDockerで構築しました。phi-2とtinyllamaを使ってみて、どちらが良いかを検証しました。