{ローカルCline}{CLINE}{ローカルLLM}(3)

{あれ K#EDD2/A52F-9BFB}

ClineとローカルLLMでコード書けたらいいなとか思ってたけど、想像以上にLLMに要求される精度が高いわこれ。
7bぐらいでできるようになってくれると嬉しいけど、できるようになるとして来年とかだろうか。

{ローカルCline}{Deep Research}{CLINE}{ローカルLLM}(4)

{あれ K#EDD2/A52F-F3DA}

Deep ResearchにローカルLLMでClineを動かす方法を調べてもらったら、アカン感じのレポートが出てきたので、まだ無理なんやなとなった。

{Nova}{クラウドサービス型LLM}{ローカルLLM}(3)

{あれ K#EDD2/A52F-8E29}

ローカルLLMが動いて日本語が出てるだけで驚異的に進歩してるんだけど、本家本元のクラウドサービス型のLLMも驚異的に進歩してるから、常に見劣りしますわね。

クラウドサービス型のLLMはローカルLLMの猛追を受けるために「デカくて賢いが高コスト」を宿命づけられてる。大変そう。


AWSがNovaで価格破壊しよるしのう!!


LLMそのものを提供して儲けるよりも、別のところで儲けないと厳しいかもしれない。

{ローカルLLM}{continue}{コード生成AI}(3)

{あれ K#EDD2/43C5}

VSCodeの拡張機能のContinueと、Ollamaを組み合わせると、ローカルのLLMがコードを書いてくれるようになるぞ。
ただし品質と生成速度はLLMモデル並びにそれを動かすPCのスペックで決まる。

{だからなんやねん}{M4}{M4 iPad Pro}{ローカルLLM}{チャットボット}(5)

{あれ K#EDD2/9971}

M4 iPad Proの発表を見ていたのだけど、私には全然ほしいとは思えなかった。
Youtuberとか、動画を作る人にとっては、持ち運べるワークステーションみたいで便利そうだと思った。
「M4が乗るぜ」って発表が出たときには、「すわローカルLLM」と思われたが、そういうアレではなかった。
AppleがローカルLLMを作ろうと思えばいつでも作れると思うのだけど、そうしていないのは有効な利用用途が見つかっていないのだろうと推量している。
ローカルで動くチャットボットを作ったところで、「だからなんやねん」という感じだし。

{GTX 1070 Ti}{CodeGemma}{ローカルLLM}(3)

{あれ K#EDD2/E21F}

1070Tiとか言う化石みたいなGPUでも動くLLMがまともな回答するようになってて怖い

{ローカルLLM}

{}