Zurück zum Blog
Rechtliches12. Januar 20267 Min. Lesezeit

EU KI-Verordnung: Was Psychotherapeut:innen jetzt wissen müssen

Die EU KI-Verordnung (AI Act) schafft klare Qualitätsstandards für KI-Software. Erfahren Sie, warum das für Ihre Praxis eine gute Nachricht ist — und wie einfach Compliance mit den richtigen Tools gelingt.

René Papenfuß

René Papenfuß

Gründer

EU KI-Verordnung: Was Psychotherapeut:innen jetzt wissen müssen - Die EU KI-Verordnung (AI Act) schafft klare Qualitätsstandards für KI-Software. Erfahren Sie, warum ...

Seit dem 1. August 2024 ist die EU-Verordnung über Künstliche Intelligenz — besser bekannt als AI Act — in Kraft. Damit hat Europa das weltweit erste umfassende KI-Gesetz geschaffen. Die gute Nachricht für Psychotherapeut:innen: Das Gesetz sorgt dafür, dass KI-Software hohen Qualitätsstandards entsprechen muss — und wenn Sie auf einen seriösen Anbieter setzen, ist der Großteil der Anforderungen bereits für Sie abgedeckt.

Warum der AI Act für Ihre Praxis relevant ist

Die EU KI-Verordnung schafft einheitliche Qualitätsstandards für KI-Software in Europa. Für Sie als Psychotherapeut:in bedeutet das vor allem eines: mehr Sicherheit und Transparenz bei den Tools, die Sie nutzen.

Die Hauptverantwortung liegt dabei klar bei den Software-Anbietern. Sie müssen nachweisen, dass ihre Produkte sicher, transparent und datenschutzkonform sind. Für Sie als Anwender:in bleiben die Anforderungen überschaubar und praxisnah.

Immer mehr niedergelassene Psychotherapeut:innen nutzen digitale Tools — von der ePA bis zu KI-Funktionen — Tendenz stark steigend. Der AI Act wird diese Nutzung nicht einschränken, sondern dafür sorgen, dass die eingesetzten Tools verlässlich und sicher sind.

Die drei Risikokategorien: Wo steht Ihre Software?

Die EU KI-Verordnung teilt KI-Anwendungen in drei Kategorien ein:

RisikostufeBeschreibungBeispiel in der PsychotherapieRegulierung
Geringes/minimales RisikoKI-Tools, die den Menschen unterstützenSchreib- und Formulierungshilfen, TerminplanungTransparenzpflichten
HochrisikoKI, die eigenständig klinische Entscheidungen trifftAutonome Diagnostik, automatisierte TherapieplanungAuflagen ab Aug. 2026
UnzulässigSysteme, die grundlegende Rechte verletzenSocial Scoring, manipulative TechnikenVerboten seit Feb. 2025

Was bedeutet „Hochrisiko"?

Als Hochrisiko gelten KI-Systeme, die eigenständig medizinische Diagnosen stellen oder klinische Entscheidungen treffen — also ohne menschliche Kontrolle agieren. Für solche Systeme muss der Software-Anbieter umfangreiche Auflagen erfüllen: Risikomanagementsysteme, Qualitätsstandards, technische Dokumentation und mehr.

Wichtig: Tools, die Sie lediglich bei der Formulierung und Strukturierung unterstützen — während Sie die klinische Entscheidung treffen — fallen in der Regel nicht in die Hochrisiko-Kategorie.

Was Sie als Anwender:in wissen sollten

Der AI Act unterscheidet klar zwischen Anbietern, die KI-Software entwickeln, und Anwender:innen, die sie im Berufsalltag nutzen. Die Hauptlast der Compliance trägt der Anbieter. Für Sie als Psychotherapeut:in gibt es nur wenige, praxisnahe Punkte:

Ein Grundverständnis Ihrer Tools

Der AI Act sieht vor, dass Sie die Grundzüge der eingesetzten KI-Software kennen — also wissen, was das Tool kann und wo seine Grenzen liegen. Wenn Sie diesen Artikel lesen, erfüllen Sie diese Anforderung bereits.

Berichte fachlich prüfen — wie Sie es ohnehin tun

KI-generierte Texte wie Berichtsentwürfe sollten vor der Verwendung von Ihnen geprüft werden. Das ist für die allermeisten Therapeut:innen selbstverständlich: Sie lesen den Entwurf, passen ihn an und geben ihn erst dann frei. Genau das ist gewünscht.

Patient:innen informieren

Ein einfacher Hinweis in Ihrer Patienteninformation genügt. Zum Beispiel: _„In unserer Praxis nutzen wir KI-gestützte Software zur Unterstützung der Berichterstellung. Alle Ergebnisse werden von uns fachlich geprüft."_

Praxis-Tipp: 3 einfache Schritte zur Compliance

So stellen Sie sicher, dass Ihr KI-Einsatz den Anforderungen entspricht:

  • 1. Patient:innen informieren: Ergänzen Sie Ihre Patienteninformation um einen kurzen Hinweis zum KI-Einsatz. Ein Satz genügt (siehe oben).
  • 2. Berichte wie gewohnt prüfen: Lesen und bearbeiten Sie KI-generierte Entwürfe vor der Verwendung — so, wie Sie es bereits tun.
  • 3. Auf einen seriösen Anbieter setzen: Wählen Sie Software, die auf EU-Servern arbeitet, Ihre Daten nicht für Training nutzt und die Compliance-Anforderungen des AI Act für Sie übernimmt.

Was der AI Act für KI-gestützte Berichtserstellung bedeutet

Ein konkretes Beispiel: Sie nutzen eine KI-Software, die Sie bei der Erstellung von PTV3-Berichten an den Gutachter unterstützt. Wie ist das einzuordnen?

Entscheidend ist der Verwendungszweck

  • KI als Schreibhilfe (Textvorschläge, Formulierungshilfe): Dies fällt unter geringes Risiko, solange die KI keine eigenständigen klinischen Entscheidungen trifft. Es gelten lediglich Transparenzpflichten.
  • KI als Dokumentationsassistent (strukturierte Berichterstellung auf Basis Ihrer Eingaben): Wenn die KI Ihre fachlichen Eingaben strukturiert und formuliert — ohne eigenständig klinische Schlussfolgerungen zu ziehen — fällt auch dies unter geringes Risiko. Die klinische Entscheidung treffen Sie.
  • KI als autonomes Diagnostik-System (eigenständige Diagnosestellung ohne ärztliche Prüfung): Nur solche Systeme, die ohne menschliche Kontrolle klinische Entscheidungen treffen, gelten als Hochrisiko. Das ist ein grundlegend anderer Anwendungsfall.
Der PTV3-Assistent wurde genau so konzipiert, dass er in die Kategorie „geringes Risiko" fällt: Sie geben die klinischen Inhalte vor — die KI unterstützt bei Struktur, Formulierung und Leitlinienkonformität. Die fachliche Entscheidung liegt immer bei Ihnen.

3 verbreitete Missverständnisse zum AI Act

Missverständnis 1: „Das betrifft nur große Tech-Unternehmen"

Nicht ganz — aber fast. Der AI Act gilt zwar grundsätzlich auch für Anwender:innen, aber die allermeisten Pflichten liegen beim Software-Anbieter. Für Sie als Therapeut:in beschränken sich die Anforderungen auf das, was Sie ohnehin tun: Ergebnisse prüfen, informiert bleiben, seriöse Tools nutzen.

Missverständnis 2: „Alle KI-Tools im Gesundheitswesen sind Hochrisiko"

Nein. Entscheidend ist, ob die KI eigenständig klinische Entscheidungen trifft. Schreib- und Formulierungshilfen, die Ihre Eingaben strukturieren, fallen unter geringes Risiko. Nutzen Sie allerdings keine allgemeinen Tools wie ChatGPT mit Patientendaten — setzen Sie auf spezialisierte, DSGVO-konforme Software (mehr dazu in unserem DSGVO-Leitfaden).

Missverständnis 3: „Ich muss jetzt sofort alles umstellen"

Nein. Die KI-Kompetenzpflicht — also ein Grundverständnis Ihrer Tools — gilt bereits. Die weitergehenden Regelungen für Hochrisiko-Systeme treten erst im August 2026 in Kraft. Sie haben ausreichend Zeit, und mit einem konformen Anbieter sind Sie schon heute gut aufgestellt.

Worauf Sie bei Ihrem KI-Anbieter achten sollten

Ein seriöser KI-Anbieter im Gesundheitsbereich nimmt Ihnen den Großteil der Compliance-Arbeit ab. Achten Sie bei der Auswahl auf folgende Merkmale:

  • Transparente Dokumentation — Sie verstehen, was die KI tut und wo ihre Grenzen liegen
  • Datenverarbeitung in der EU — Ihre Daten bleiben auf europäischen Servern
  • Kein Training mit Ihren Daten — vertraglich zugesichert
  • Klare Rollenteilung — die Software unterstützt, Sie entscheiden
  • DSGVO-Konformität als Grundvoraussetzung
Der PTV3-Assistent erfüllt all diese Kriterien und geht noch einen Schritt weiter: Alle Daten werden ausschließlich auf deutschen Servern verarbeitet (Microsoft Azure mit BSI C5-Testat), Ihre Eingaben werden niemals für KI-Training verwendet, und die fachliche Kontrolle liegt stets bei Ihnen. Wir kümmern uns um die regulatorischen Anforderungen — damit Sie sich auf Ihre Patient:innen konzentrieren können. Mehr zu unseren Datenschutzmaßnahmen.

Kurz-Checkliste: AI Act in Ihrer Praxis

Diese wenigen Punkte genügen, um gut aufgestellt zu sein:

  • Grundverständnis der eigenen KI-Tools aufbauen (dieser Artikel ist ein guter Start)
  • Patienteninformation um einen kurzen KI-Hinweis ergänzen
  • KI-generierte Berichte vor Verwendung prüfen und freigeben
  • Datenschutzerklärung bei Bedarf aktualisieren
  • Einen Anbieter wählen, der Compliance-Anforderungen für Sie übernimmt

Fazit: Der AI Act macht KI-Nutzung sicherer — nicht komplizierter

Die EU KI-Verordnung ist kein Hindernis, sondern ein Qualitätsstandard, der Sie als Therapeut:in schützt. Für alle, die bereits verantwortungsvoll mit KI arbeiten — Ergebnisse prüfen, Patient:innen informieren und auf seriöse Anbieter setzen — ändert sich im Alltag praktisch nichts.

Drei Dinge, die Sie mitnehmen sollten:

  • Sie sind bereits auf dem richtigen Weg — wer diesen Artikel liest, erfüllt die KI-Kompetenzanforderung
  • Die KI unterstützt, Sie entscheiden — und genau das sieht der AI Act vor
  • Der richtige Anbieter macht den Unterschied — wählen Sie Software, die Compliance für Sie mitdenkt

Zeit sparen bei der Berichterstellung — leitlinienkonform und AI-Act-ready

Der PTV3-Assistent unterstützt Sie bei der Erstellung von Berichten an den Gutachter — strukturiert, leitlinienkonform und mit voller fachlicher Kontrolle durch Sie. Alle Daten bleiben in Deutschland, werden nicht für KI-Training verwendet, und die Software wird kontinuierlich an regulatorische Anforderungen angepasst. Jetzt 14 Tage kostenlos testen.

---

Hinweis: Dieser Artikel dient der allgemeinen Information und ersetzt keine Rechtsberatung. Für eine verbindliche Einschätzung zur AI-Act-Compliance Ihrer Praxis wenden Sie sich an eine:n auf IT-Recht spezialisierte:n Rechtsanwält:in. Die dargestellten Informationen basieren auf dem Stand der EU-Verordnung 2024/1689 (Februar 2026).

Tags:

EU KI-VerordnungAI ActKI RegulierungCompliancePraxissoftware

Jetzt Zeit sparen bei der Berichterstellung

Erstellen Sie PTV3-Berichte in nur 10-20 Minuten statt mehreren Stunden. 14 Tage kostenlos testen.

Kostenlos testen