Premier article d’une série sur Azure Static Web Apps avec Blazor. On crée un projet Blazor WASM et on le déploie sur Azure en quelques minutes.
[Lire]
dotnet watch : tu l'utilises pour le hot reload. Tu devrais en faire plus.
Chaque fois que je modifiais du code, je faisais Alt-Tab vers le terminal, flèche vers le haut, Enter. dotnet test. Attendre. Vérifier. Retour dans l’éditeur. Répéter.
C’est pas dramatique. Mais sur une journée complète, ça finit par coûter cher en concentration. Le pire, c’est que j’avais déjà dotnet watch dans mon workflow pour le hot reload d’une app web. Je ne m’étais jamais demandé si ça pouvait faire autre chose.
Microsoft Agent Framework : premier agent, MCP et workflows multi-agents
Microsoft Agent Framework remplace Semantic Kernel et AutoGen. Voici comment créer un agent local avec Ollama, brancher un serveur MCP, et orchestrer deux agents en séquence.
[Lire]
MCP en C# : exposer vos propres outils à n'importe quel client IA
MCP standardise la façon dont les clients IA appellent des outils externes. Voici comment construire un serveur MCP fonctionnel en C#, avec un exemple météo complet, prêt à connecter à Claude Desktop ou à VS Code Copilot.
[Lire]
Tour d'horizon de mes dépôts GitHub publics
Tour d’horizon thématique de mes dépôts GitHub publics, avec une courte description de chacun.
[Lire]
Reconstruire mon archive de blog de 15 ans sans perdre sa mémoire
J’ai reconstruit mon archive de blog de 15 ans avec Hugo et Azure Static Web Apps. Ce qui comptait : ne pas casser les vieux liens, garder EN/FR fonctionnel, et rendre les déploiements ennuyeux.
[Lire]
15 ans de blogging : leçons apprises
Retour sur 15 ans de blogging : pourquoi la cohérence importe moins que la qualité, comment le contenu bilingue construit la communauté, et ce qui crée vraiment de la valeur pour vos lecteurs.
[Lire]
Construire des agents IA avec Ollama et .NET
Apprenez à créer des agents IA qui pensent, planifient et agissent de manière autonome en utilisant Ollama et .NET. Explorez le pattern ReAct, l’appel d’outils et les architectures d’agents pratiques.
[Lire]
RAG local avec Ollama, LiteLLM et Qdrant
Connecter Ollama à LiteLLM et Qdrant pour du RAG local : ingestion, découpage, embeddings, retrieval et évaluation.
[Lire]
Développement IA local avec Ollama et .NET
Apprenez à exécuter des grands modèles de langage localement avec Ollama et à les intégrer dans vos applications .NET pour améliorer la confidentialité, réduire les coûts et bénéficier de capacités IA hors ligne.
[Lire]