2. Mai 2025 Deine Daten, deine Kontrolle: Lokale KI-Modelle für dein Business


Künstliche Intelligenz ist heutzutage allgegenwärtig. Dank ihrer disruptiven Natur, ergeben sich mit jeder Iteration der Modelle neue Möglichkeiten und Chancen, die sich in Unternehmen nutzen lassen. Grosse Cloud Anbieter wie OpenAI, Google oder Anthrophic buhlen sich in einem Kopf an Kopf rennen um die Nutzung ihrer Propriätaren Modelle. Im Schatten dieses Rennens in dem es um Milliarden geht, entwickelt sich jedoch parallel eine neue Alternative, die Unternehmen die volle Kontrolle zurück gibt: lokale Large Language Models (LLMs).

Lokale LLMs als strategische Business⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠-⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠Entscheidung


Lokale LLMs sind im Grunde Modelle, die wie ihre Brüder in der Cloud genutzt werden können. Statt über eine API, also über eine Schnittstelle in die Cloud der Anbieter, können diese Modelle lokal (on Premise) ausgeführt werden. Dies kann beispielsweise auf dem PC des Anwenders geschehen, aber auch auf einem internen Server, der im Grunde ähnlich wie die API der grossen Anbieter funktionieren kann. In der Geschäftswelt, wo eine zunehmende Transformation in die Cloud vorangetrieben wird, kann man sich berechtigterweise die Frage stellen, wie dieses Puzzleteil in das Gesamtbild fortschrittlicher Unternehmenstransformationen passen soll. Es gibt jedoch entscheidende Vorteile, die für bestimmte Use-Cases erfolgskritisch sind:

Bedingungsloser Datenschutz: Da beim Ausführen von lokalen Modellen alles „offline" geschieht, gelangen keine Daten an externe Unternehmen. Dies ist insbesondere von Wichtigkeit, falls es sich um hochsensitive Kundendaten oder internes geistiges Eigentum handelt, welche auf keinen Fall nach aussen gelangen sollten, oder wo eine Weitergabe an Dritte mit hohen rechtlichen Hürden verbunden ist, zum Beispiel durch Regularien wie der DSGVO.

Keine Abhängigkeit: Die Abhängigkeit von grossen Cloud Anbietern wird umgangen. Du hast die freie Wahl, welches Modell du für was und wie einsetzt. Im Rahmen der Möglichkeiten der lokalen Modelle entscheidet nur dein Unternehmen – es gibt niemanden der dir reinredet oder mitbestimmt, keine Geschäftsbedingungen die sich ändern oder das Angebot in anderer Weise beeinflusst. Zudem besteht die Möglichkeit dank Open Source Frameworks wie OLLAMA, stetig die neusten und performantesten Modelle zu nutzen, ohne einen Anbieterwechsel vollführen zu müssen.

Keine Abonnementgebühren: Die Kosten für die Nutzung von Large Language Models für Unternehmen können sich schnell aufsummieren, da zwar eine einzelne API-Anfrage meist nur wenig kostet, sich diese Ausgaben jedoch rasch addieren können. Bei Business-SaaS (Software as a Service) Angeboten, besteht oft die Notwendigkeit pro Nutzer zu bezahlen. Bei lokalen LLM hingegen, liefert eine einmalige Investition über eine lange Zeit entsprechende Ressourcen, die lediglich durch die Limitierungen der Hardware und die Fähigkeiten der Modelle begrenzt sind.

Die technologischen Fortschritte, insbesondere der letzten Monate, haben die Grösse der Modelle reduziert, während die Fähigkeiten drastisch gestiegen sind. Kleinere Modelle werden beispielsweise aus grossen Modellen destilliert, einem Prozess, bei dem ein grösseres Modell ein kleineres Modell trainiert und somit die Essenz der Fähigkeiten trotz kleinerer Grösse weitestgehend beibehalten kann – ähnlich wie beim Komprimieren eines Bildes. Zudem gibt es Modelle, die sich auf spezielle Anwendungsfälle spezialisiert haben, zum Beispiel fürs Programmieren. Auch besteht die Möglichkeit, ein Modell mit Trainingsdaten feinabzustimmen („Finetuning"), um es auf bestimmte Anwendungsfälle im Unternehmen zu spezialisieren.

Denkanstösse: Wie lokale LLMs in deinem Unternehmen Mehrwert schaffen könnten


Text Vervollständigung: Eine Erstellung von Texten für einen Brief, eine E-Mail oder für eine Mitteilung im Kundenportal, die dynamisch aus den vorliegenden Kundendaten und dem Sachverhalt generiert wird. Durch die Erstellung eines Entwurfs kann der Sachbearbeiter effizienter hochpersonalisierte Anliegen und Prozesse abwickeln und dank der Mensch-KI Kollaboration kann trotz einer Effizienzsteigerung die Korrektheit gewährleistet werden („Human-in-the-Loop"). Da hochsensitive Kundendaten involviert sind, wäre eine Verarbeitung in der Cloud aus datenschutztechnischer Sicht sehr schwierig und mit grösseren Risiken verbunden.

Text Klassifikation: Lokale Modelle können eingehende Texte klassifizieren und somit zu einer automatisierten Vorsortierung und Priorisierung beitragen. Bei Kundenanfragen, Support-Tickets oder internen Dokumenten kann das Modell den Inhalt analysieren und beispielsweise nach Dringlichkeit, Thema oder zuständiger Abteilung kategorisieren und entsprechend weiterleiten. Dies beschleunigt die Bearbeitungszeit erheblich und reduziert Fehlzuordnungen. Dies ist insbesondere von Vorteil, wenn dein Unternehmen kundenzentriert agiert und es in der Natur des Unternehmens liegt, dass es zu Kundenkontakt kommt – wie beispielsweise in Versicherungen und Banken.

Interne vertrauliche Wissenssuchmaschine: Wenn du grossen Wert auf die Vertraulichkeit deiner Geschäftsgeheimnisse legst, aber dennoch eine intelligente Suchmaschine wünschst, könnte eine RAG („Retrieval-augmented generation") genau die passende Lösung sein. Dabei verschmelzen zwei Technologien: Zuerst wird das Wissensmaterial (Prozessdokumentationen, Anleitungen und andere Wissensquellen) mithilfe eines Transformermodells abgetastet und es werden Vektoren der Inhalte berechnet, die die Bedeutung der Textpassagen abbilden. Wird anschließend eine Anfrage gesendet, werden auch für deren Inhalte Vektoren generiert und mit der Datenbank abgeglichen. Dadurch können relevante Dokumente und Passagen ermittelt werden, welche in einem zweiten Schritt als Kontext von einem LLM verarbeitet werden können und dem Nutzer somit basierend auf den Quellen eine Antwort liefern können. Dies ermöglicht präzise Antworten und reduziert das Auftreten von Halluzinationen.

Dies sind drei Denkanstösse für Anwendungsszenarien. Die Möglichkeiten sind jedoch nahezu unbegrenzt und es kommt auf die individuellen Bedürfnisse und Prozesse an, die in deinem Unternehmen bestehen und aus denen sich Chancen zur Anwendung ergeben können.

Zwischen Cloud und lokal: Der pragmatische Weg nach vorn für deinen Wettbewerbsvorteil


Die Anwendung von lokalen LLMs lohnt sich besonders für spezialisierte Anwendungsfälle, bei denen Datenschutz und Unabhängigkeit im Vordergrund stehen. Es bietet die Chancen, die Kundenzufriedenheit durch Reaktionszeit und hyperpersonalisierte Anwendungen zu erhöhen, Kosten zu senken und Mitarbeiter auf neue Effizienzebenen zu heben, die sonst durch Cloud-Lösungen nicht abgedeckt werden könnten. Besonders regulierte Branchen wie Banken und Versicherungen profitieren von der sicheren Datenverarbeitung ohne externe Übertragung. Die jüngsten technologischen Fortschritte haben die Einstiegshürden drastisch gesenkt – was vor zwei Jahren noch Spezialisten mit teurer Hardware vorbehalten war, ist heute mit überschaubarem Aufwand in Unternehmen realisierbar.

Dennoch ist der lokale Ansatz nicht für jeden Anwendungsfall optimal. Wo extreme Skalierbarkeit, höchste Modellgrösse, Cloud-Integrationen oder minimaler Implementierungsaufwand gefordert sind, behalten Cloud-Dienste Vorteile. Die Zukunft liegt vermutlich in hybriden Ansätzen, bei denen Lokale LLMs und Cloud-Lösungen nicht als Konkurrenten, sondern als komplementäre Technologien gesehen werden können. Beide bieten unterschiedliche Arten von Mehrwert und überschneiden sich zwar in vielen Anwendungsfällen, ergänzen sich aber auch gegenseitig: Während Unternehmen für spezialisierte Aufgaben mit hochsensitiven Daten auf lokale Modelle setzen können, erfüllen KI-Lösungen in der Cloud andere wichtige Bedürfnisse, sodass durch die gezielte Kombination beider Ansätze ein optimales Gesamtergebnis erreicht werden kann.

Die Grenzen der Möglichkeiten verschieben sich Tag für Tag und der entscheidende erste Schritt ist es, mit einem Strategieplan und einem einfachen Proof-of-Concept deine Möglichkeiten für die spezifischen Bedürfnisse und Prozesse deines Unternehmens zu erkunden und zu evaluieren. Wenn du dich für dieses Thema interessierst, stehen wir dir für eine unverbindliche Beratung gerne zur Verfügung, um die optimale Strategie für dein Unternehmen zu entwickeln – datenschutzkonform, kosteneffizient und angepasst auf deine Bedürfnisse.

Dein Kontakt


Morris Keller
Data & AI Engineer