KI-Chatbots

Risiken von ChatGPT & Co.: Keine Partner für Vertrauliches

Künst­liche Intel­ligenz ist faszi­nie­rend. Wer sie nutzt, sollte es aber mit Vorsicht und gesundem Menschen­ver­stand tun. Im Dialog mit Chat­bots ist Vorsicht geboten, wenn es um sensible Daten geht.
Von dpa /

Sie wissen auf fast alles eine Antwort: Auf Künst­licher Intel­ligenz (KI) basie­rende Chat­bots nach allem Mögli­chen zu fragen, ist verlo­ckend. Doch sollte man mit der derzeit gehypten Tech­nologie und Ange­boten, die mit ChatGPT und Co. reali­siert werden, vorsichtig umgehen, rät das Hasso-Plattner-Institut (HPI) und warnt vor der "Preis­gabe sensi­bler Daten".

Abfragen mache KI "schlau"

Das Hasso-Plattner-Institut (HPI) warnt im Umgang mit Chatbots vor der "Preisgabe sensibler Daten" Das Hasso-Plattner-Institut (HPI) warnt im Umgang mit Chatbots
vor der "Preisgabe sensibler Daten"
Image licensed by Ingram Image
Die digi­tale Inno­vation sei bahn­bre­chend, erfor­dere aber einen reflek­tierten Umgang, stellt das HPI heraus. Nutze­rinnen und Nutzer sollte aber klar sein, dass sie mit ihren Anfragen und Daten die KI-Modelle der Anbieter gratis weiter trai­nierten und "schlau" machten.

Zum einen könne so die Vertrau­lich­keit persön­licher Daten verloren gehen. Aber auch im Job ist dem HPI zufolge Vorsicht geboten: Wer zum Beispiel interne Finanz­daten seines Unter­neh­mens hoch­lade, um sich daraus auto­matisch eine Präsen­tation erstellen zu lassen, verrate mögli­cher­weise sogar Geschäfts­geheim­nisse.

Mit watchGPT kann ChatGPT jetzt direkt auf der Apple Watch genutzt werden. Mehr dazu lesen Sie in einer weiteren News.

Mehr zum Thema Künstliche Intelligenz