Künstliche Intelligenz ist ein Thema, das viele Menschen seit einiger Zeit beschäftigt, sowohl Forscher wie auch Laien. Eine Gruppe führender Experten auf dem Gebiet hat nun einen Bericht veröffentlicht, der vor möglichen bösartigen Nutzungen von künstlicher Intelligenz warnt und Maßnahmen vorschlägt, mit denen man dem Problem vorbeugen könnte.
“Bösartige Nutzungen Künstlicher Intelligenz”
Die immer schnelleren technologischen Innovationen um Künstliche Intelligenz (KI) lösen unterschiedliche und teilweise gegensätzliche Reaktionen aus. Auf der einen Seite ist es unbestritten, dass solche Technologien dem Menschen zunehmend Arbeit abnehmen und das Leben vereinfachen können. Auf der anderen Seite wirkt der Fortschritt in mancher Hinsicht unheimlich, zum Beispiel, wenn KI-Softwares immer besser darin werden, Videos zu fälschen, oder Roboter entwickelt werden, die menschlichen Angriffen standhalten können, wie von der US-Amerikanischen Firma Boston Dynamics.. Dieses Unbehagen scheint allerdings beim Thema KI nicht nur Laien zu treffen: Ein Team von Experten warnt nun in einem neuen Bericht mit dem Titel “Bösartige Nutzungen Künstlicher Intelligenz” vor den Gefahren der Technologie.
Die Gruppe besteht unter anderem aus Wissenschaftlern der renommierten Universitäten Yale, Oxford und Stanford, sowie Entwicklern von Microsoft und Google. Auffallend ist bei ihrer Analyse, dass sie sich gänzlich auf schon existierende Technologie beziehen. Ihre Warnung basiert also nicht auf Science-Fiction und möglichen fernen Zukunftsvisionen, sondern auf sehr realistischen Einschätzungen davon, was mit KI alles möglich wird. Zwar sagen die Forscher, dass KI und Machine Learning viele Vorteile mit sich bringen, aber sie mahnen dazu, auch die negativen Folgen zu beleuchten.
Wovor warnt der Bericht?
Der Bericht zählt verschiedenste Technologien auf, die zu Problemen führen könnten. Ein prominentes Beispiel ist das aus den Nachrichten bekannte Programm “FakeApp”, mit dem sich sogenannte “Deep Fakes” erzeugen lassen können, realistische manipulierte Videos, in denen Gesichter von Prominenten auf die Körper von anderen geschnitten werden. Diese Fälschungen sind inzwischen so täuschend echt, dass sie in Zukunft die Glaubwürdigkeit von jeglichen Videoaufnahmen in Frage stellen könnten. Kombiniert mit dem Trend der “Fake News”, den erfundenen Nachrichten, könnten sie ein erhebliches Problem für die Medien darstellen. Dazu kommen KI-Softwares, die persönliche schriftliche Kommunikation und sogar Stimmen beinahe perfekt imitieren können, was technikaffinen Betrügern Tür und Tor öffnet.
Weitere Gefahren sehen die Wissenschaftler dort, wo Hackerangriffe immensen physischen Schaden anrichten könnten. Selbstfahrende Autos, die von jemand anderem ferngesteuert werden, Kampfdrohnen, die auf Befehl von Terroristen das Feuer auf die eigenen Soldaten oder auf Zivilisten eröffnen: Solch erschreckende Szenarien könnten durch KI immer näher rücken. Darüber hinaus könnte der Überwachungsstaat immer weiter ausgebaut und in Kombination mit Manipulations- und Täuschungssoftware sehr effektiv von skrupellosen Regierungen zur Unterdrückung widerspenstiger Bevölkerungen genutzt werden. Die Digitalisierung vieler Lebensbereiche, von Computer-Aktienhandel bis zum “Internet der Dinge”, vergrößert solche Gefahren stetig.
Was schlägt der Bericht vor?
Es gibt aber dennoch keinen Grund, die Hoffnung aufzugeben oder gar das Smartphone wegzuschmeißen und den Computer zu zertrümmern. Denn zum Glück bietet der Bericht der Expertengruppe auch konkrete Maßnahmen, wie man die bösartigen KI-Nutzungen unterbinden könnte. Vor allem werben die Autoren für ein erhöhtes Problem- und Verantwortungsbewusstsein bei Forschern und Entwicklern, die sich mit KI beschäftigen. Weiter fordern sie eine engere Zusammenarbeit von Gesetzgebern und Wissenschaftlern, um Missbräuche von KI-Technologie frühzeitig untersuchen, verhindern oder abschwächen zu können. Auch wollen sie eine breitere Debatte über die Problematik sowohl in den entsprechenden Entwicklerkreisen, wie auch in der Öffentlichkeit anstoßen. Denn jetzt, so der Bericht, sei es noch nicht zu spät um einzugreifen.