Verbreitung des Terror-Videos Facebooks KI hat bei Anschlag in Neuseeland versagt

Bei dem Anschlag war ein mutmaßlich rechtsextremistischer Terrorist in zwei Moscheen in Christchurch gestürmt und tötete 50 Menschen. Foto: Getty Images AsiaPac
Bei dem Anschlag war ein mutmaßlich rechtsextremistischer Terrorist in zwei Moscheen in Christchurch gestürmt und tötete 50 Menschen. Foto: Getty Images AsiaPac

Facebook-Manager Guy Rosen räumte in einem Blogeintrag ein, dass Facebooks Systeme Künstlicher Intelligenz (KI) bei der Entdeckung des online verbreiteten Videos des Christchurch-Attentäters versagt haben.

WhatsApp E-Mail LinkedIn Flipboard Pocket Drucken

Christchurch - Facebooks Systeme Künstlicher Intelligenz (KI) haben bei der Entdeckung des online verbreiteten Videos des Christchurch-Attentäters versagt. Das räumte Facebook-Manager Guy Rosen in einem Blogeintrag ein. Die automatischen Systeme seien nicht auf dieses Video angesprungen. Ein Grund dafür sei, dass Künstliche Intelligenz über ähnliche Inhalte trainiert und ausgebaut werde, und in diesem Fall habe es nicht genug Material gegeben, weil solche Angriffe wie in der vergangenen Woche selten seien.

Warum das Verbreiten von Tätervideos strafbar ist

Eine weitere Herausforderung für KI sei, den Unterschied zwischen Videos wie diesem und „optisch ähnlichem, aber harmlosem Inhalt“ zu erkennen - etwa live-gestreamte Videospiele.

Bei dem Anschlag in Christchurch war ein mutmaßlich rechtsextremistischer Terrorist in zwei Moscheen in Christchurch gestürmt und tötete 50 Menschen. Als Konsequenz hat Neuseeland seine Waffengesetze verschärft. Mit sofortiger Wirkung will das Land Sturmgewehre, leistungsstarke Magazine und halbautomatische Waffen verbieten.

Unsere Empfehlung für Sie