Search

Video - Ollama vs LM Studio


 


Mon tipeee https://linkly.link/2GAj1 🌍 Mon linkedIn : https://linkly.link/23LBM 🌍 Le groupe LinkedIn LelabIA https://linkly.link/2GAj4 🌍 Suivez moi sur X https://linkly.link/2GAj7 🌍 Mon Github https://linkly.link/2GAjE 🔬 Au programme de cette vidéo : Une comparaison honnête et mesurée entre les deux outils ⚖️ Des tests concrets sur deux questions : 💡 “Qu’est-ce que l’intelligence artificielle ?” 🍷 “Une bouteille coûte 20 €, le vin seul 19 € de plus... combien coûte la bouteille ?” Analyse de la vitesse d’exécution (tokens/sec) Observation des variations de réponses, de la gestion du cache, et de l’utilisation du GPU 🎛️ Et bien sûr… ma conclusion personnelle sur le meilleur choix selon les usages 👇 ⚙️ Résultats observés : 👉 LM Studio : ~40 tokens/sec — rapide et régulier ⚡ 👉 Ollama : entre 5 et 11 tokens/sec — plus variable mais plus vivant 🤔 💬 En résumé : testez sur votre propre machine ! Les performances dépendent de votre config, de vos modèles et de vos drivers CUDA. Perso, j’utilise LM Studio pour le développement 🧩, et Ollama pour les tests “intenses” ou la variabilité des réponses.

Ces posts pourraient vous intéresser: