毎年恒例meetup app osaka@10で話してきました。
推し技術を語る会ですが、ここ2年ぐらいでAI関連率めちゃくちゃ上がった感じです。
まぁ自分もAI関連にはなったのですが。なお当初考えてた話がポシャったので謝罪からになりました。。
スペックにもよりますけど、それなりのGPU詰んでたら LM Studio 使ったりするのが一番お手軽な気がします。Claude Code はランナーとしてめちゃくちゃイイのですが、その分めちゃくちゃLLMぶん回しますね、、必要コンテキストもでかいし、それなりのスペックが無いとまともに応答が得られないです。※ あとローカルLLMについての言及は無いですが何時ローカルのエンドポイントアクセス潰されるかわからないですね、、
あと言及してませんがGemini CLIとかは単純に漏れてました。時間なくて、、、すみません。ソースコードが公開されてるので、認証消してローカルLLM使うようにしたりするのが主流みたい(?)
はやくCopilot+PCのNPUを活用できるようになればいいですね…