<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Worker Service on Gabriel Mongeon</title><link>https://gabrielmongeon.ca/tags/worker-service/</link><description>Recent content in Worker Service on Gabriel Mongeon</description><generator>Hugo</generator><language>fr</language><lastBuildDate>Fri, 15 May 2026 00:06:00 -0400</lastBuildDate><atom:link href="https://gabrielmongeon.ca/tags/worker-service/index.xml" rel="self" type="application/rss+xml"/><item><title>Function Calling : enseigner des outils à l'assistant</title><link>https://gabrielmongeon.ca/2026/05/raspberry-pi-voice-assistant-function-calling/</link><pubDate>Fri, 15 May 2026 00:06:00 -0400</pubDate><guid>https://gabrielmongeon.ca/2026/05/raspberry-pi-voice-assistant-function-calling/</guid><description>&lt;p>&lt;em>Cet article fait partie de la série &lt;a href="https://gabrielmongeon.ca/series/assistant-vocal-sur-raspberry-pi/">Assistant vocal sur Raspberry Pi&lt;/a>.&lt;/em>&lt;/p>
&lt;p>À l&amp;rsquo;article #5, on injectait la météo dans chaque conversation, même pour une question comme &lt;em>&amp;ldquo;quel est ton nom?&amp;rdquo;&lt;/em>. C&amp;rsquo;est du gaspillage de tokens. Le function calling règle ça : le LLM décide lui-même quand appeler un outil, et uniquement quand c&amp;rsquo;est nécessaire.&lt;/p>
&lt;p>Le code complet de cet article est disponible sur &lt;a href="https://github.com/mongeon/code-examples/tree/main/dotnet/ai/audio-assistant/06-function-calling">GitHub&lt;/a>.&lt;/p></description></item><item><title>Intégration Ollama et contexte maison</title><link>https://gabrielmongeon.ca/2026/05/raspberry-pi-voice-assistant-ollama/</link><pubDate>Fri, 15 May 2026 00:03:00 -0400</pubDate><guid>https://gabrielmongeon.ca/2026/05/raspberry-pi-voice-assistant-ollama/</guid><description>&lt;p>&lt;em>Cet article fait partie de la série &lt;a href="https://gabrielmongeon.ca/series/assistant-vocal-sur-raspberry-pi/">Assistant vocal sur Raspberry Pi&lt;/a>.&lt;/em>&lt;/p>
&lt;p>La réponse hardcodée de l&amp;rsquo;article #2 avait un seul but : confirmer que le pipeline audio fonctionne. Maintenant, on remplace cette ligne par un vrai appel HTTP à Ollama sur le pi-cerveau. On ajoute aussi un system prompt pour donner une identité à l&amp;rsquo;assistant.&lt;/p>
&lt;p>Le code complet de cet article est disponible sur &lt;a href="https://github.com/mongeon/code-examples/tree/main/dotnet/ai/audio-assistant/03-ollama-context">GitHub&lt;/a>.&lt;/p></description></item><item><title>Worker Service .NET 10 et pipeline audio</title><link>https://gabrielmongeon.ca/2026/05/raspberry-pi-voice-assistant-worker-service/</link><pubDate>Fri, 15 May 2026 00:02:00 -0400</pubDate><guid>https://gabrielmongeon.ca/2026/05/raspberry-pi-voice-assistant-worker-service/</guid><description>&lt;p>&lt;em>Cet article fait partie de la série &lt;a href="https://gabrielmongeon.ca/series/assistant-vocal-sur-raspberry-pi/">Assistant vocal sur Raspberry Pi&lt;/a>.&lt;/em>&lt;/p>
&lt;p>Les deux Pi sont configurés. Maintenant on code. L&amp;rsquo;objectif : valider le pipeline audio complet sur le pi-client, de la pression du bouton jusqu&amp;rsquo;à la réponse vocale, sans LLM. On hardcode une réponse pour l&amp;rsquo;instant. Le LLM arrive à l&amp;rsquo;article #3.&lt;/p>
&lt;p>Le code complet de cet article est disponible sur &lt;a href="https://github.com/mongeon/code-examples/tree/main/dotnet/ai/audio-assistant/02-worker-service-pipeline">GitHub&lt;/a>.&lt;/p></description></item></channel></rss>