Ein KI-Chatbot, der dem Facebook-Konzern Meta zugeordnet ist, hat jüngst für Aufsehen und Kontroverse gesorgt, als er fälschlicherweise das Attentat auf Donald Trump bestritt. Die falschen Informationen, die von dem Chatbot verbreitet wurden, führten zu Kritik aus verschiedenen Ecken.
Meta verteidigte sich und verwies auf sogenannte ‚Halluzinationen‘ in der Software als Ursache für die fehlerhaften Angaben. Insbesondere das politische Lager der Trump-Anhänger zeigte sich empört über die mangelnde Beantwortung von Fragen seitens des Unternehmens.
Experten erklären, dass diese ‚Halluzinationen‘ in KI-Chatbots oft auf Trainingsdaten und Softwarefunktionen zurückzuführen sind. In einem besorgniserregenden Vorfall versah ein automatisiertes System von Meta fälschlicherweise ein Foto mit einem falschen Faktencheck-Label.
Das Attentat auf Trump, das sich in Pennsylvania ereignete, hatte tragische Konsequenzen mit Todesopfern und Verletzten. Diese Vorfälle werfen ein Licht auf die Herausforderungen im Umgang mit automatisierten Systemen und der Notwendigkeit einer verbesserten Faktenprüfung in der digitalen Welt.
KI-Entwickler stehen vor der Aufgabe, Lösungen für die Probleme von KI-Chatbots zu finden, insbesondere im Hinblick auf ‚Halluzinationen‘. Es wird deutlich, dass die Sicherstellung von korrekten und verifizierten Informationen in der digitalen Kommunikation dringend verbessert werden muss.