Datenschutzkonforme KI-Modelle

Mann interagiert mit humanoidem Roboter in einem Raum, beleuchtet von blau-orangem Licht.

Künstliche Intelligenz hat sich im vergangenen Jahr vom Tech-Trend der Zukunft zum Teil unseres Alltags entwickelt. Es gibt mittlerweile KI-basierte Dienstleistungen für fast jede Lebenslage, ob privat oder beruflich. Und das macht die Technologie auch so richtig interessant für Unternehmen. Laut einer Umfrage von Bitkom, arbeiten bisher erst drei Prozent der deutschen Unternehmen mit generativer KI. Das wird sowohl in Deutschland als auch global in den kommenden Jahren ausgebaut, sodass wir uns natürlich auch stark mit dem Thema befassen.

 

In diesem Kontext stellen unsere Kunden uns immer wieder die Frage, ob wir KI-Assistenten bauen können, die auch Datenschutzkonform sind. Und diese Anforderung ist absolut richtig und wichtig: Denn um Arbeitsprozesse effektiv zu unterstützen, muss die KI tief in die internen Abläufe eines Unternehmens eingreifen. Das beinhaltet nicht nur oberflächliche Informationen, sondern gegebenenfalls sogar geschützte Geschäftsgeheimnisse.

 

Die Herausforderung besteht also darin, der KI Einblicke in sensible Daten zu geben, ohne die Integrität dieser zu gefährden. Geht das aktuell überhaupt? Um dies herauszufinden, haben wir recherchiert und das KI-Modell LlaMA 2 als Praxis-Beispiel genommen, um zu zeigen, was bei einem datenschutzkonformen KI-Assistenten nötig ist. 

 

Wir zeigen Dir, was Du über datenschutzkonforme KI wissen musst und wie gut diese KI-Modelle für den deutschsprachigen Raum angewendet werden können.

Was sind KI-Assistenten eigentlich?

Bevor wir in den Deep Dive gehen, geht’s um KI-Assistenten im Allgemeinen. Sie sind komplexe KI-Modelle, die darauf ausgelegt sind, natürliche Sprache zu verstehen, verarbeiten und Texte so zu generieren, dass die Antworten menschenähnlich sind. Je besser das Modell trainiert wurde, desto menschlicher sind die Antworten, bis hin zum personalisierten Schreibstil. Diese Art der KI fällt in die Gruppe der Large Language Models (LLM) und ChatGPT ist gerade das bekannteste Produkt. 

 

KI-Assistenten haben weitreichende Funktionen, von der automatisierten Content-Erstellung bis zur Unterstützung in verschiedenen geschäftlichen Prozessen. Die Fähigkeit, sie so anzulernen, dass sie sich mit den internen Strukturen eines Unternehmens auskennen, verspricht effiziente und kostensparende Arbeitsabläufe unter dem Einsatz von KI-Assistenten.

 

Insbesondere LlaMA 2 ist ein vielversprechendes Modell, jedoch nur eines von vielen Optionen, die auf dem Markt verfügbar sind. 

Eine datenschutzkonforme KI - geht das überhaupt?

Die Nutzung künstlicher Intelligenz wird mittlerweile immer häufiger im Kontext der Datenschutzkonformität diskutiert, insbesondere vor dem Hintergrund der europäischen Datenschutz-Grundverordnung (DSGVO). Sie gibt klare Richtlinien für die Erhebung, Verarbeitung und Speicherung von personenbezogenen Daten.

 

KIs werden nämlich trainiert, indem sie Daten verarbeiten. Zunächst sind dies öffentlich zugängliche oder gekaufte Datensätze. Doch viele kostenfreie KI-Modelle entwickeln sich auch weiter, indem sie die Nutzeranfragen und Daten dazu nutzen. Im Hinblick auf persönliche Informationen oder Interna eines Unternehmens, wird in einem solchen Fall der Datenschutz nicht eingehalten. Und genau diese Informationen wollen wir auch bei der Verwendung von KI-Assistenten schützen, insbesondere wenn diese ursprünglich auf US-amerikanischen Plattformen basieren. US-amerikanische Datenschutzgesetze unterscheiden sich erheblich von den europäischen Standards, was Fragen zur Harmonisierung und Interoperabilität aufwirft. 


Aber können wir das überhaupt? Die einfache Antwort lautet “ja”. Es gibt Modelle, die sicherstellen, dass die europäischen Datenschutzprinzipien in Verbindung mit KI-Systemen eingehalten werden und die KI nicht von den Eingaben der Nutzer:innen trainiert wird. Unternehmen, die KI in ihre Prozesse integrieren, müssen garantieren, dass die eingesetzten Modelle und Algorithmen den Anforderungen der DSGVO entsprechen. Dies erfordert nicht nur technische Anpassungen, sondern auch eine umfassende strategische Herangehensweise, um sicherzustellen, dass keine sensiblen Daten an die KI weitergegeben werden.

Praxis-Beispiel: LlaMa 2

Bei der Entscheidung, wie ein Tech-Stack für einen KI-Assistenten aussehen kann, müssen wir uns für ein KI-Modell und einen Applikations-Server sowie ein Frontend entscheiden. Den Applikations-Server benötigen wir, um externe Datenquellen anzubinden und ein öffentliches Interface zur Verfügung zu stellen. Es gibt auch Server-Anbieter, die dafür ausgelegt sind, KIs zu hosten. Das Frontend greift auf Applikations-Server zu, um mit der KI zu interagieren. 

 

In unserer Recherche haben wir uns auf LlaMA 2 fokussiert, einer Large Language Model KI, die ähnlich wie ChatGPT zur Erstellung von Texten genutzt wird. LlaMA 2 gehört zu Meta und basiert auf Open Source. 

 

LlaMA 2 ist mit verschiedenen Toolings kompatibel, was eine flexible Integration in bestehende Arbeitsabläufe ermöglicht. Services wie AWS SageMaker machen es leicht, KI-Modelle in Cloud-Umgebungen bereitzustellen. Tools wie LangChain ermöglichen es zudem, firmeninterne oder öffentliche Daten einzubinden.

Herausforderungen und Learnings

Datenschutz

Der Vorteil von LlaMA 2 ist, dass es kommerziell verwendet werden darf, wenn man eine Lizenz bei Meta angefragt und erhalten hat. Damit sind zwar hohe Kosten verbunden, aber wir können einstellen, dass die Informationen, die über diesen Zugang zum Training der KI, wie auch die Nutzeranfragen, nicht zum allgemeinen Training der KI verwendet werden. Unsere Daten werden also nur lokal in unserem Zugang verarbeitet und nicht weitergereicht. Die Suche nach einem ausgereiften KI-Assistenten, der grundsätzlich den spezifischen Anforderungen und Datenschutzrichtlinien deutscher Unternehmen entspricht, ist weiterhin eine aktive Baustelle.

 

Sprache

Ein erheblicher Nachteil, der sich jedoch sicherlich mit der Zeit minimieren wird, ist, dass es immer noch sprachliche Barrieren gibt. Obwohl LlaMA 2 oft den Kontext deutscher Fragen versteht, neigt es dazu, in Englisch zu antworten, was die Benutzerfreundlichkeit für deutschsprachige Unternehmen beeinträchtigen kann. Es gibt jedoch abgeleitete Modelle, die auf deutschen Texten trainiert wurden. 

 

Feintuning

Llama 2 kann “out of the box” verwendet werden, ohne eigene Daten einzufüttern. Wenn man das Modell (oder andere KI-Modelle) dennoch auf seine eigenen Bedürfnisse zuschneiden möchte, gibt es zwei Möglichkeiten: System Prompts / Prompt Templates oder Pre-training, System Prompts / Prompt Templates sind Meta-Prompts, die das Ergebnis des Modells beeinflussen können. Anstatt den Nutzerinput direkt an das Modell zu schicken, wird er vorher mit relevanten Informationen und Kontext aufbereitet. Diese vorgefütterten Informationen müssen kein Text sein, sondern können auch Dokumente mit wichtigem Kontext für die KI sein.

Meet the Expert: Garrit Franke

Unser DevOps Garrit Franke ist einer unserer LLM-Experten und hat auch an der Recherche zu LlaMa 2 gearbeitet. Für ihn ist klar, dass künstliche Intelligenz hier ist um zu bleiben und dass der Schutz sensibler Daten nicht auf der Strecke bleiben darf. Garrit betont: “Angesichts der Geschwindigkeit, mit der sich KI entwickelt, ist der proaktive Umgang mit Datenschutz essenziell. Jetzt ist der Moment, innovative Lösungen zu erforschen und zu implementieren, die mit der KI-Revolution Schritt halten.” Datenschutz im Kontext von KI sieht er nicht als Hindernis, sondern viel eher als eine tolle Gelegenheit, innovative Ansätze für Technologie und Ethik zu entwickeln.

Abschließend können wir bestätigen, dass es mit heutigen Mitteln absolut möglich ist, KI-Applikationen ohne Abhängigkeiten von Drittanbieter-Services datenschutzkonform zu entwickeln. Lediglich die Rechenleistung muss gegeben sein.

 

In diesem Artikel haben wir unseren Fokus auf Text-basierte Anwendungsfälle gelegt. Moderne KI-Modelle wie ChatGPT sind inzwischen Multi-Modal und können Text, Audio und Video interpretieren. Ob und wie diese Funktionen datenschutzkonform bereitgestellt werden können, werden wir in zukünftigen Recherchen genauer untersuchen.

Du bist ein Unternehmen und möchtest mit uns zusammenarbeiten? Dann kontaktiere uns gerne per Mail für eine unverbindliche Beratung.


Du bist ein:e Digital-Expert:in und möchtest ein Teil unseres Teams werden? Hier geht's zu unserer Karriere-Seite.

Über SHAPE

SHAPE ist die hybride Digitalagentur für strategische Beratung und KI-gestützte Lösungen entlang der gesamten Customer Experience. Mit über einem Jahrzehnt Erfahrung und 140 Spezialist:innen an sechs Standorten in Deutschland, der Schweiz und Kroatien gestalten wir den digitalen Wandel – von der datengetriebenen Analyse bis zur kreativen Umsetzung. Als Teil der internationalen MYTY Gruppe vereinen wir Strategie, Kreation, Tech & Marketing zu skalierbaren Lösungen.

Mann und humanoider Roboter lächeln sich an. Der Roboter hat leuchtende Ohren, sanfter roter Hintergrund.

KI Chatbots - Dein Guide

Dieser Artikel erklärt Dir alles rund um KI Chatbots. Was steckt dahinter? Wie werden sie gebaut? Und was bringen sie Deinem Unternehmen?

Mehr
Ein Mann steht vor einer Gruppe, hält ein Tablet und wird von blauem Licht beleuchtet. Teilnehmer nutzen Laptops.

DevOps: Mit Vertrauen zum Erfolg

DevOps vereint Entwicklung und Betrieb. Kontinuierliches Feedback ist zentral. Doch wie hängt fehlendes Kundenfeedback mit Burnout zusammen?

Mehr
Person springt freudig vor einem regenbogenfarbenen Hintergrund, in Bewegung mit erhobenen Armen.

Agil im Kopf: Unser Mindset für erfolgreiche Projekte

Agiles Arbeiten ist mittlerweile in aller Munde. Aber warum ist es in der Software-Entwicklung so wichtig? Wir erklären es und zeigen Methoden, wie agiles Projektmanagement zum Erfolg führt.

Mehr

Tatjana Schultze Marketing & Data

Deine Expertin für PR und Marketing – für starke Auftritte, klare Botschaften und messbaren Erfolg.

Kommunikationsmanagerin Tatjana Schultze