Trusted Contact: OpenAI schützt Nutzer bei Selbstgefährdung

OpenAI führt Trusted Contact in ChatGPT ein: Erwachsenennutzer können eine vertraute Person benennen, die bei erkannter Selbstgefährdung informiert wird. Menschliche Prüfungen sollen Fehlalarme verhindern und Nutzer zu Hilfsangeboten leiten.

Sarah Hoffmann Sarah Hoffmann . Kommentare
Trusted Contact: OpenAI schützt Nutzer bei Selbstgefährdung

4 Minuten

Manche Menschen nutzen ChatGPT wie eine Suchleiste. Andere sprechen mit ihm so, als würden sie einem Freund um zwei Uhr morgens schreiben, wenn der Schlaf nicht kommt. Dieser zweite Nutzungsfall hat die KI in Bereiche geführt, die weit über Produktvorführungen und Programmierhilfe hinausgehen, und OpenAI reagiert nun mit einer Funktion, die für Momente gedacht ist, in denen ein Gespräch gefährlich zu werden scheint.

Das neue Tool namens Trusted Contact wird gerade in den ChatGPT-Einstellungen für erwachsene Nutzer eingeführt. Zweck ist auf dem Papier einfach: einem Nutzer erlauben, eine Person auszuwählen, die benachrichtigt werden kann, wenn das System ein ernsthaftes Selbstgefährdungsrisiko erkennt. In der Praxis versucht OpenAI, ein Sicherheitsnetz zu schaffen, ohne private Chats in automatische Alarmmeldungen zu verwandeln.

Die Einrichtung ist freiwillig. Nutzer können eine vertrauenswürdige Person benennen, die jedoch altersbedingt qualifiziert sein muss: in den meisten Regionen mindestens 18 Jahre, in Südkorea 19 Jahre. Nach der Auswahl erhält die Kontaktperson eine Einladung mit Erläuterungen zur Rolle und hat sieben Tage Zeit, anzunehmen. Lehnt sie ab, kann der Nutzer eine andere Person wählen.

Was danach passiert, ist der Punkt, an dem OpenAI eindeutig Übermaß vermeiden will. Alarme werden nicht automatisch gesendet, sobald das System besorgniserregende Formulierungen erkennt. Zuerst informiert ChatGPT den Nutzer darüber, dass sein Trusted Contact benachrichtigt werden könnte. Es ermutigt den Nutzer außerdem, sich direkt an jemanden zu wenden und schlägt sogar Formulierungen vor, um das Gespräch zu beginnen. Danach prüft eine kleine Gruppe speziell geschulter menschlicher Gutachter den Fall. Nur wenn diese bestätigen, dass die Situation auf ein ernstes Selbstgefährdungsrisiko hinweist, sendet OpenAI eine Benachrichtigung.

Die Benachrichtigung kann per E-Mail, SMS oder über die App erfolgen. Sie enthält keine Chatprotokolle, Zitate oder Zusammenfassungen des Gesprächs. Stattdessen informiert sie die vertraute Person lediglich darüber, dass in einem besorgniserregenden Kontext Selbstverletzung erwähnt wurde, und bittet sie, nachzufragen. OpenAI sagt, die menschliche Prüfung solle in weniger als einer Stunde abgeschlossen sein.

Wie das in OpenAIs breitere Sicherheitsstrategie passt

Das erscheint nicht isoliert. OpenAI hat bereits Sicherheitsfunktionen für Jugendkonten eingeführt, zum Beispiel Benachrichtigungen für Eltern, wenn verknüpfte Konten Anzeichen von Not zeigen. Trusted Contact überträgt diese Idee auf Erwachsene, was viel darüber aussagt, wie das Unternehmen ChatGPT inzwischen sieht. Der Chatbot ist nicht mehr nur ein Produktivitätsassistent. Für viele Nutzer ist er ein Ort für tief persönliche, emotional aufgeladene Gespräche geworden.

Laut OpenAI wurde die Funktion mit Beiträgen von Klinikerinnen und Klinikern, Forschenden und psychischen Gesundheitsorganisationen entwickelt, unter anderem der American Psychological Association. Diese externe Einbindung ist wichtig. Jedes Werkzeug, das Selbstgefährdungsrisiken, Privatsphäre und Krisenreaktionen berührt, befindet sich in einem sensiblen Bereich, in dem Designentscheidungen reale Folgen haben.

Es gibt auch klare Grenzen. Trusted Contact ersetzt keine Krisenhotline, Notdienste oder professionelle psychische Gesundheitsversorgung. OpenAI sagt, ChatGPT werde Nutzer weiterhin an diese Ressourcen verweisen, wenn nötig. Nutzer können ihre gewählte Kontaktperson jederzeit entfernen oder ändern, und die Kontaktperson kann sich jederzeit abmelden.

In diesem Rollout steckt eine leise Botschaft. OpenAI erkennt etwas an, worum die Techbranche lange herumgeredet hat: Menschen bringen ihre verwundbarsten Momente bereits zu KI-Chatbots. Ob Unternehmen das beabsichtigt haben oder nicht, ist mittlerweile weniger relevant. Das Verhalten ist da. Funktionen wie Trusted Contact sind ein Versuch, auf diese Realität mit etwas mehr Vorsicht, mehr Menschlichkeit und der Einsicht zu reagieren, dass selbst der fortschrittlichste Chatbot nicht die einzige Stimme im Raum sein sollte, wenn es dunkel wird.

"Nachhaltige Technologie ist die Zukunft. Ich schreibe über Green-Tech und wie Digitalisierung dem Planeten helfen kann."

Kommentar hinterlassen

Kommentare