<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Llm on Eddy de Vink</title><link>https://www.eddydevink.nl/tags/llm/</link><description>Recent content in Llm on Eddy de Vink</description><generator>Hugo</generator><language>nl-nl</language><lastBuildDate>Sat, 09 May 2026 00:00:00 +0000</lastBuildDate><atom:link href="https://www.eddydevink.nl/tags/llm/index.xml" rel="self" type="application/rss+xml"/><item><title>Lokale LLMs Draaien: DeepSeek op een Mac Mini</title><link>https://www.eddydevink.nl/blogs/ai-innovatie/</link><pubDate>Sat, 09 May 2026 00:00:00 +0000</pubDate><guid>https://www.eddydevink.nl/blogs/ai-innovatie/</guid><description>&lt;p&gt;Sinds een paar maanden draai ik lokale LLMs op mijn Mac Mini M4. Dit is waarom, hoe, en wat het oplevert.&lt;/p&gt;
&lt;h2 id="waarom-lokaal"&gt;Waarom lokaal?&lt;/h2&gt;
&lt;p&gt;Drie redenen:&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;&lt;strong&gt;Privacy&lt;/strong&gt; — mijn prompts en data gaan niet naar OpenAI of Anthropic&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Kosten&lt;/strong&gt; — geen API credits, geen abonnement&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Beschikbaarheid&lt;/strong&gt; — geen rate limits, geen downtime van derden&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;Een Mac Mini M4 met 16GB RAM draait verrassend veel modellen. Het M4 neurale engine helpt, maar het echte werk gebeurt op de GPU cores via Metal.&lt;/p&gt;</description></item></channel></rss>