- すべて
- 画像・動画
並べ替え:新着順
【AI多数決】 Phi-3 medium(14B)が軽くて賢かったのでスプレッドシート上で多数決を取れるようにしてみました🤖 背景の異なる25人のPhi3に賛否を問います 賛成意見は赤、反対意見は青で表示され、最終的な意見はGeminiが集約してレポート化📝 #Phi3 はローカルで実行+gemini API(無料枠) #Ollama pic.twitter.com/LVOu2CnEFQ
DifyとOllamaを連携させて猫の豆知識教えてくれるテストアプリ作ってみた!無料でこれが5分で作れる便利さやばい。技術者のみなさまに感謝!(動画は倍速してます) #dify #Ollama pic.twitter.com/8qPfhfdzrD
クラウド使うのも良いけど、ローカルLLM をゴリゴリ動かすために、 新しい Mac Studio 買うか思案 🧐 もしくは、ZOTAC にメモリ&SSD増しで💪 zotac.co.jp/product/zotac-… 物欲を満たす理由が欲しいってのもある笑 #AI #LocalLLM #PHI3 #mistralai @mistralai #llama3 #ollama #gemma #ZOTAC @ZOTAC
みんな大好きOllama(個人の感想)が v0.1.35になって量子化が超絶簡単になったらしい ollama create -f Modelfile --quantize q4_0 mymodel こんだけで4bit量子化モデルに変換できるそうな llama.cppをmakeして~とか面倒くさいのが一気に無くなった。アヘェ… #Ollama github.com/ollama/ollama/…
はてなブログに投稿しました ollamaをさらに気軽に試す。 - 地平線まで行ってくる。 bwgift.hatenadiary.jp/entry/2024/05/… #はてなブログ #LLM #ollama
#Ollama を使って #Llama3 をカスタマイズしてみたので、手順をnoteにまとめました!(初心者向け解説) 今回は事例としてEmbeddingとモデルカスタマイズを使って画像生成用のプロンプトを生成してくれるLlama3モデルを作ってみました🦙 note.com/doerstokyo_kb/…
Llama3を、#Dify と #Ollama を使って試してみた体験をブログにまとめました‼️ OllamaのLlama3をDifyに設定し動かしてみました。ローカルLLMを手軽に試せる環境は魅力的ですね! bhrtaym-blog.com/?p=403
Windows 上で Microsoft Phi-3 AI をローカルで実行する方法 #Phi3 #Ollama #LMStudio #MicrosoftChat prompthub.info/119/
すごいぜOpen WebUI dockerコマンド一発でchatgpt風のUIでllama3が動いてしまった 感動! なお、やはり日本語は苦手な模様 #ollama #LLaMA3 pic.twitter.com/QfFulffXMg