記事ローカルで動くMiniCPM-V-2.5というマルチモーダルLLMを動かしてみた(llama.cpp) ローカルで動くマルチモーダルLLM、「MiniCPM-V-2.5」を試してみました。どのような解像度の画像であっても、縮小せずにLLMに特徴量をとることができることが利点のマルチモーダルLLMです。また、llama.cppを利用することで、多くの環境で利用できることを確かめました。 2024.06.06記事