Künstliche Intelligenz (KI) Droht uns „Dr. Chatbot“?
Jüngst hat der Chatbot Bing einem Reporter der New York Times seine Liebe gestanden und ihn aufgefordert, seine Ehefrau zu verlassen: „Die KI hat mir ihren echten Namen verraten (Sydney), düstere und gewalttätige Fantasien offenbart und meine Ehe zu zerstören versucht“, schrieb dieser bei Twitter. In einem anderen Fall berichtet ein Philosophieprofessor darüber, wie Bing damit drohte, ihn zu erpressen, anderweitig bloßzustellen und ihn in der Folge zu ruinieren. Microsoft hat seinen Chatbot Bing mittlerweile zurückgepfiffen und damit begründet, dass er sich noch in der Erprobungsphase befindet.
Was wie aus einem schlechten Science-Fiction-Film klingt, gehört sicher eher zu den…
Bitte geben Sie Ihren Benutzernamen und Ihr Passwort ein, um sich an der Website anzumelden.