Favorited Ollama Claude Code integration by Ollama
Favorited LM Studio Claude Code integration by LM Studio blog

Last Friday I participated in a workshop by Frank Meeuwsen on using Claude Code. I’ve been reluctant to use Claude Code for the basic reason that it uses cloud run models by default. This means that my inputs and any context I provide leave my machine to be gobbled up into the data foraging models. Nevertheless it was fun, I improved on my existing personal feed reader (a presentation layer on top of FreshRSS that allows me to write responses while I’m reading feeds).

However tempting it is to continue vibecoding with Claude Code and watching it work its way through my coding requests, that is not the way to go. After some online searching I found the above two pages, that explain how to point the program Claude Code to use the local end point of either Ollama or LMStudio. That’s more like it!

Now I need to figure out which LLMs that can be downloaded (or run on a VPS perhaps) are best suited to the type of tasks I want to set it. For coding, local agents, translation, and semantic work. There can be multiple models of course, as I can switch them up or run them sequentially (and in parallel if I deploy them on a VPS I think).

Open models can be used with Claude Code through Ollama’s Anthropic-compatible API

Ollama documentation

This means you can use your local models with Claude Code!

LM Studio blog

4 reactions on “Bringing Claude Code to the Local Machine

  1. Ik heb ooit lokaal een model gedraaid, jaartje of wat terug, en dat ging zelfs met het kleinste model niet echt soepel. Ligt vast aan mij, gebruik een laptop uit 2012, maar toch. Ben benieuwd naar je ervaringen. Ik heb niet zo’n moeite met API of online gebruik, maar als het lokaal goed werkt, dan altijd liever dat.

    • Het is vooral dat ik geen klantmateriaal of persoonlijke gegevens uit mijn aantekeningen aan een extern model wil voeren, waarbij die input permanent wordt overgenomen daar.
      Ja, lokale rekenkracht is nodig. Ik heb een 2021 Macbook Air met Apple silicon. Die kan redelijk uit de voeten lokaal. Transcriptie bijvoorbeeld gaat heel goed. En ook lokale chat sessies gaat prima.

      De beschikbare modellen en tools voor lokaal gebruik liepen eerst flink achter bij wat je online kon gebruiken, maar dat verschil is flink afgenomen. Het lijkt alsof er in de afgelopen paar maanden een hele golf aan dingen bij is gekomen die ook lokaal gebruikt kunnen worden.

      De eerste poging gisteren om Claude Code met ollama te draaien was geen succes echter. Maar heb nog niet gekeken waarom het niet functioneerde.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

To respond on your own website, enter the URL of your response which should contain a link to this post's permalink URL. Your response will then appear (possibly after moderation) on this page. Want to update or remove your response? Update or delete your post and re-enter your post's URL again. (Find out more about Webmentions.)