Künstliche Intelligenz (KI) Droht uns „Dr. Chatbot“?

Autor: Sabine Mack

Ein Blick auf die inhaltlichen Kompetenzen von textbasierter KI zeigt: Das Potenzial von Chatbots wie ChatGPT ist groß, auch die „medizinische Expertise“ scheint besser zu werden. Es ist jedoch nicht alles Gold, was glänzt – dabei werden Chatbots manchmal sogar persönlich bzw. übergriffig.

Jüngst hat der Chatbot Bing einem Reporter der New York Times seine Liebe gestanden und ihn aufgefordert, seine Ehefrau zu verlassen: „Die KI hat mir ihren echten Namen verraten (Sydney), düstere und gewalttätige Fantasien offenbart und meine Ehe zu zerstören versucht“, schrieb dieser bei Twitter. In einem anderen Fall berichtet ein Philosophieprofessor darüber, wie Bing damit drohte, ihn zu erpressen, anderweitig bloßzustellen und ihn in der Folge zu ruinieren. Microsoft hat seinen Chatbot Bing mittlerweile zurückgepfiffen und damit begründet, dass er sich noch in der Erprobungsphase befindet.

Was wie aus einem schlechten Science-Fiction-Film klingt, gehört sicher eher zu den…

Liebe Leserin, lieber Leser, aus rechtlichen Gründen ist der Beitrag, den Sie aufrufen möchten, nur für medizinische Fachkreise zugänglich. Wenn Sie diesen Fachkreisen angehören (Ärzte, Apotheker, Medizinstudenten, medizinisches Fachpersonal, Mitarbeiter der pharmazeutischen oder medizintechnischen Industrie, Fachjournalisten), loggen Sie sich bitte ein oder registrieren sich auf unserer Seite. Der Zugang ist kostenlos.

Bei Fragen zur Anmeldung senden Sie bitte eine Mail an online@medical-tribune.de.