So installieren Sie die neuesten großen Sprachmodelle (LLMs) lokal auf einem Mac

In den letzten Jahren haben große Sprachmodelle (LLMs) aufgrund ihrer Fähigkeit, menschenähnliche Texte zu generieren und bei verschiedenen Aufgaben zu helfen, zunehmend an Popularität gewonnen. Nicht alle Modelle sind Open Source, aber nahezu jedes große Technologieunternehmen bietet eine Version zum Herunterladen und Ausführen an.

Die lokale Ausführung dieser Modelle auf Ihrem Mac kann sowohl aus Datenschutz- als auch aus Kostengründen vorteilhaft sein. In diesem Artikel erfahren Sie, wie Sie LLMs installieren und ausführen. OllamaEs ist ein leistungsstarkes Werkzeug für Entwickler und unerfahrene Benutzer, und wir werden einige grafische Benutzeroberflächen-Tools besprechen, die den Prozess für diejenigen vereinfachen können, die das macOS-Terminal nicht verwenden möchten.

Inhaltsverzeichnis

Auf diese Weise erhalten Sie Zugriff auf die neuesten KI-gestützten Textvorlagen von [Google], [Microsoft], [Meta] und anderen KI-Unternehmen wie [Mistral] und [DeepSeek].

LLMs verstehen: Was bedeuten die Parameter?

Bevor wir uns mit dem Installationsprozess befassen, klären wir zunächst, was Zahlen wie „7B"Oder"14 MrdBei LLMs geben diese Zahlen die Modellgröße in Bezug auf die Lehrer (In Milliarden), die im Wesentlichen „Griffe und Schalter“ sind, die während des Trainings präzise eingestellt werden.

Eine größere Anzahl an Parametern ermöglicht es dem Modell, komplexere Muster und Zusammenhänge in der Sprache zu erfassen, was potenziell zu einer besseren Leistung führt. Es ist jedoch wichtig zu beachten, dass mehr Parameter nicht immer bessere Ergebnisse garantieren; die Qualität der Trainingsdaten und die dem Modell zur Verfügung stehenden Rechenressourcen spielen ebenfalls eine wichtige Rolle.

System Anforderungen

Sie müssen sicherstellen, dass Ihr [Mac] mindestens die folgenden Spezifikationen aufweist:

  • macOS 10.15 oder neuer (macOS 13 oder neuer empfohlen)
  • Mindestens 8 GB RAM (16 GB oder mehr empfohlen)
  • 10 GB freier Speicherplatz (das Minimum, das für die kleinsten Modelle erforderlich ist; fortgeschrittenere Modelle mit einer maximalen Anzahl von Parametern benötigen etwa 700 GB).
  • [Intel] Mehrkernprozessor oder [Apple Silicon] Prozessor (M2 oder höher bevorzugt)

Installieren Sie Ollama

Ollama Es handelt sich um ein Open-Source-Tool, mit dem Sie LLMs direkt auf Ihrem lokalen Rechner ausführen können. So gehen Sie vor:

  1. Ollama herunterladen: Besuchen Sie die Website Ollama Laden Sie die macOS-Version herunter. Alternativ können Sie sie auch mit [Homebrew] installieren, indem Sie folgenden Befehl ausführen: brew install ollama In Ihrem Terminal.
Ollama-Downloadseite
  1. Installieren Sie OllamaWenn Sie die Installationsdatei heruntergeladen haben, doppelklicken Sie darauf und folgen Sie dem Installationsassistenten. Wenn Sie Homebrew verwenden, fahren Sie mit Schritt 4 fort.
Klicken Sie im Ollama-Einrichtungsbildschirm auf Weiter.
  1. Der nächste Schritt für den Installateur ist einfach: Er muss nur noch auf die Schaltfläche klicken. تثبيتSie werden dann nach Ihrem Administratorpasswort gefragt.
Ollamas grafische Benutzeroberfläche mit Installationsschaltfläche
  1. Lauf OllamaÖffnen Sie ein Terminalfenster und starten Sie Ollama als Dienst mit dem Befehl brew services start ollamaDadurch wird Ollama unter der Adresse verfügbar sein. http://localhost:11434/.
  2. Laden Sie das Modell herunter und führen Sie es aus.Verwenden Sie den Befehl ollama pull <model-name> Um eine Vorlage herunterzuladen, dann der Befehl ollama run <model-name> Um es auszuführen. Zum Beispiel, um ein Modell auszuführen DeepSeek-R1, benutze den Befehl ollama pull deepseek-r1 Im Anschluss daran folgte die Bestellung ollama run deepseek-r1.
  3. Um eine größere Version der Vorlage herunterzuladen, fügen Sie einfach zwei vertikale Punkte gefolgt von der gewünschten Größe hinzu. Beispiel: Um eine Vorlage herunterzuladen 14 Milliarden DeepSeekSie werden den Befehl verwenden ollama laufe Deepseek-r1:14bAuf der Ollama-Website können Sie auf eines der Formulare klicken, und Ihnen werden alle verschiedenen Befehle für jede Version angezeigt.
Starten von llama 3.2 mit ollama
Installation von Metas llama 32 LLM

Die vollständige Liste finden Sie hier: Ollama-Modelle Hier. Sie können auch den zweiten Befehl wie oben beschrieben verwenden. Falls dieser noch nicht installiert ist, wird er zuerst das Formular abrufen und anschließend ausführen.

Installation von llama 3.2 im Terminal

Nachdem Sie nun die drei rechtwinkligen Pfeile (>>>) gesehen haben, können Sie mit der Eingabe von Befehlen in das Formular beginnen.

Terminalfenster mit einer Frage an ollama llm

Das war's! Sie können jetzt lokal mit Ihrem KI-gestützten LLM interagieren, ohne sich Gedanken über Kosten, übermäßige Nutzung oder die Möglichkeit für Dritte machen zu müssen, Ihre Nachrichten zu lesen. Das ist ideal, wenn Sie sensible oder persönliche Themen mit einem KI-gestützten LLM besprechen möchten, aber nicht möchten, dass ein großer Technologiekonzern Ihre Gedanken mitliest.

Verwendung von grafischen Benutzeroberflächen-Tools mit Ollama

Ollama ist zwar leistungsstark und effizient für Entwickler, doch manche Benutzer bevorzugen eine grafische Benutzeroberfläche (GUI) zur Interaktion mit LLMs. Hier sind einige Tools, die eine GUI-Oberfläche für Ollama bereitstellen können:

      • Ollama GUIDies ist eine kostenlose Open-Source-Anwendung für macOS-Nutzer, die mit SwiftUI entwickelt wurde. Sie bietet eine ansprechende Benutzeroberfläche und ist eine hervorragende Option für alle, die lokal auf LLM-Formulare zugreifen möchten, ohne ein Terminal zu verwenden.
      • Ollama-BenutzeroberflächeEine einfache, HTML-basierte Web-Benutzeroberfläche, mit der Sie Formulare direkt im Browser definieren und bearbeiten können. Zudem ist eine Chrome-Erweiterung für den einfachen Zugriff verfügbar.
      • Chatbox-KIDies ist die einfachste Option für Anfänger, und ich erkläre die Anwendung weiter unten. Beachten Sie, dass Sie den Chatbox AI-Dienst nicht benötigen. Dieser ist ein Abonnement, mit dem Sie auf alle LLM-Vorlagen zugreifen können, ohne Ollama selbst installieren zu müssen.

Um die beste Chatbox-KI-Oberfläche zu nutzen, gehen Sie zu Download-Seite Laden Sie die Version für Ihren Mac herunter.

Chatbox-KI-Homepage

Öffnen Sie anschließend das Installationsprogramm und starten Sie das Programm. Auf dem ersten Bildschirm erscheint ein Popup-Fenster mit Anweisungen zur Verwendung von Chatbox AI.

Chatbox-KI verwendet meinen eigenen API-Schlüssel-Dialog

Sie müssen auf die Schaltfläche klicken. Eigenen API-Schlüssel verwenden / Lokales Modell.

Wählen Sie Ollama bei der Installation von Chatbox AI.

Tippen Sie als Nächstes auf Ollama-API Als Anbieter von Modellen künstlicher Intelligenz.

Chatbot-KI verbindet sich mit der Ollama-API

Chatbox AI sollte automatisch erkennen, dass Ollama läuft, und den API-Host auf seinen Standardwert setzen. Loopback-IP-Adresse und Portnummer 11434Sie müssen hier nichts ändern. Innerhalb des Formulars sollten Sie die Formulare sehen, die Sie zuvor über das Terminal installiert haben. In meinem Fall ist es das Formular Lama 3.2.

Chatbox-KI, neues Chatfenster mit LLM

Um zur Startseite der App zurückzukehren, klicken Sie auf Einfach chatten Oder Neuer Chat Achten Sie darauf, unten rechts die richtige Vorlage auszuwählen. Sie können die Vorlage jederzeit ändern, ich empfehle Ihnen jedoch, für jede verwendete Vorlage einen neuen Chat zu erstellen, damit Sie die Unterschiede leichter erkennen können.

Alternative Werkzeuge zum lokalen Ausführen von LLM-Modellen

Wenn Sie nach Alternativen zu Ollama suchen oder von Anfang an eine benutzerfreundlichere Erfahrung bevorzugen, dann LM Studio Es ist eine weitere hervorragende Option. Die benutzerfreundliche Oberfläche ermöglicht das Erkunden und Verwenden verschiedener KI-Modelle, die Sie einfach herunterladen und ausführen können. LM Studio ist für Linux, Mac und Windows verfügbar und bietet Funktionen wie die Anpassung von Modellparametern und des Chatverlaufs. Es ist derzeit kostenlos, weshalb ich es dem Abonnementdienst Chatbox AI vorziehe.

LM Studio für Mac Homepage

Fazit

Die lokale Ausführung großer Sprachmodelle (LLMs) auf Ihrem Mac ist wichtig für alle, die mehr Kontrolle über ihre KI-Anwendungen erlangen und dem Datenschutz Priorität einräumen möchten. Mit Tools wie Ollama und den bereits erwähnten grafischen Benutzeroberflächen, die die Integration von LLMs in Ihren Workflow vereinfachen, können Sie sicher neue Produktivitäts- und Kreativitätspotenziale erschließen.

Für die Einrichtung einer lokalen LLM-Umgebung ist jedoch ein gewisses Verständnis der Parameter und ihrer Auswirkungen auf die Leistung der Modelle auf Ihrem spezifischen System erforderlich. Am besten lernen Sie dies, indem Sie mit verschiedenen Modellen experimentieren und herausfinden, welche die besten Ergebnisse liefern. Sobald Sie dieses Konzept verstanden haben, können Sie fundiertere Entscheidungen darüber treffen, welche Modelle Sie verwenden und wie Sie deren Leistung an Ihre spezifischen Bedürfnisse anpassen.

Kommentare sind geschlossen.