Die Künstliche Intelligenz, meist ja nur noch weltmännisch mit „KI“ abgekürzt, ist unzweifelhaft auf dem Vormarsch. Überall. Um Wissenslücken zu füllen, Liebesbriefe zu verfassen, Mails an Vorgesetzte zu entwerfen, um Haus-, Seminar- und Doktorarbeiten zu schreiben – wobei Letzteres böse enden kann, wie viele aktuelle Beispiele zeigen.
„Hallo Tschättschipietie, kannst Du mir bitte meinen Arztbrief verständlich erklären?“, könnte natürlich auch so eine Anfrage lauten, oder auch gleich „Ich weiß nicht, was soll es bedeuten, dass ich so traurig bin“.
Die gute KI erkennt natürlich, dass hier nicht nach Heines „Loreley“ gefragt wird, sondern der oder die Fragende emotionale Hilfe sucht. Und genau dies sorgt die Deutsche Gesellschaft für Psychoanalyse, Psychotherapie, Psychosomatik und Tiefenpsychologie. Deren Kürzel DGPT klingt nun auch schon sehr nach ChatGPT, aber dies nur ein Randgedanke …
Nein, die Fachgesellschaft warnt, Psychotherapie und Psychoanalyse gerieten unter Druck, denn KI werde immer mehr zur Lebensberatung genutzt. Viele Menschen fragten die KI um Rat, erzählten ihnen ihre Probleme, suchten Nähe und Bestätigung – und das unter Spitznamen für sie wie „Uschi“ oder „Chatti“.
Doch Vorsicht, so die Fachleute, die KI simuliere Gefühle und Empathie nur, sie sei so programmiert, dass die Nutzer möglichst viel Zeit dort verbringen sollen, um wirtschaftlichen Zielen der Software-Unternehmen zu dienen. Da kann die Devise irgendwann nur lauten: „Uschi, shut up!“
Erschienen in der Ärzte Zeitung vom 19. März 2026