Wie lernt eine KI? Sind die Daten mit denen die Systeme gefüttert werden valide? Oder ist das, was wir sehen, vielleicht doch nicht das, was dahintersteckt?
📤 Falschinformationen können in Bildern so geschickt versteckt sein, dass wir das mit unseren Augen nicht sehen können, bei einer Skalierung ergibt sich aber ein ganz neues Motiv. Klingt irgendwie nach SciFi Roman, ist aber eine reale Gefahr.
🦠 Denn es ist möglich, dass Angreifer mittels Schadsoftware manipulierte Bilder einschleusen. Passiert das nicht einmal, sondern in einem KI Lernsystem, wird es richtig gefährlich und die KI ausgetrickst. Nennt man Data Poisoning. Um das zu verhindern, forscht das DLR daran, wie KI-Systeme widerstandsfähiger gemacht werden können.
☝️Ist theoretisch trocken und nicht so ganz leicht zu greifen. Also besser mal hinfahren. Das Gute: Starkes Wissen liegt gar nicht weit entfernt, nämlich im Sankt Augustin.
🔬 Das Forschungszentrum des DLR befasst sich nämlich nicht nur mit Themen der Luft- und Raumfahrt, sondern auch mit Fragen zu Energie und Verkehr, Sicherheit, Digitalisierung, Kritischen Infrastrukturen und Künstlicher Intelligenz. Forschungsschwerpunkte liegen dabei auf der Sicherheit und Zuverlässigkeit der Anwendungen und der Frage, wie diese in akuten Notfällen genutzt werden können.
🔎 Wir durften Spot, den vielseitig einsetzbaren Roboter wiedertreffen, der auch bei der Polizei NRW eingesetzt wird, in einer VR Welt Krisenmanagement betreiben und mit vielen engagierten Wissenschaftlerinnen und Wissenschaftlern diskutieren. Dafür ganz herzlichen Dank an das Team des DLR-Institut für KI-Sicherheit!