<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Llama on Gabriel Mongeon</title><link>https://gabrielmongeon.ca/tags/llama/</link><description>Recent content in Llama on Gabriel Mongeon</description><generator>Hugo</generator><language>fr</language><lastBuildDate>Fri, 15 May 2026 00:03:00 -0400</lastBuildDate><atom:link href="https://gabrielmongeon.ca/tags/llama/index.xml" rel="self" type="application/rss+xml"/><item><title>Intégration Ollama et contexte maison</title><link>https://gabrielmongeon.ca/2026/05/raspberry-pi-voice-assistant-ollama/</link><pubDate>Fri, 15 May 2026 00:03:00 -0400</pubDate><guid>https://gabrielmongeon.ca/2026/05/raspberry-pi-voice-assistant-ollama/</guid><description>&lt;p>&lt;em>Cet article fait partie de la série &lt;a href="https://gabrielmongeon.ca/series/assistant-vocal-sur-raspberry-pi/">Assistant vocal sur Raspberry Pi&lt;/a>.&lt;/em>&lt;/p>
&lt;p>La réponse hardcodée de l&amp;rsquo;article #2 avait un seul but : confirmer que le pipeline audio fonctionne. Maintenant, on remplace cette ligne par un vrai appel HTTP à Ollama sur le pi-cerveau. On ajoute aussi un system prompt pour donner une identité à l&amp;rsquo;assistant.&lt;/p>
&lt;p>Le code complet de cet article est disponible sur &lt;a href="https://github.com/mongeon/code-examples/tree/main/dotnet/ai/audio-assistant/03-ollama-context">GitHub&lt;/a>.&lt;/p></description></item></channel></rss>