Microsoft hat Ingenieur wegen KI-Gefahr zum Schweigen gebracht


An KI wird immer weiter geforscht. Kürzlich wies ein Manager von Microsoft jedoch auf eine Gefahr innerhalb von DALL-E hin und wurde davon abgeschreckt, weiter zu reden.

Immer mehr Menschen können die Hilfe von KI bei ihrer Arbeit in Anspruch nehmen und sie damit leichter machen. Die Firma, die den Vorsprung in Sachen KI hat, ist OpenAI. Diese ist für ChatGPT und DALL-E verantwortlich.

Als ChatGPT auf den Markt kam und der breiten Masse zur Verfügung gestellt wurde, war das Erstaunen groß. Die textbasierte KI ist darauf programmiert, mit Hilfe von schneller Recherche in der eigenen Datenbank eigenständig Texte zu formulieren. DALL-E hingegen ist in der Lage, auf der Basis von wenigen Worten ein Bild eigenständig zu generieren. Hierfür liegt dem bildbasierten KI-Modell ebenfalls eine eigene Datenbank zur Verfügung. Doch nicht alles ist an den KIs positiv. Jetzt wies ein Manager bei Microsoft auf eine Gefahr von DALL-E hin.

Wie genau funktioniert eigentlich das Generieren von Bildern mit KI? Im Video erfahrt ihr mehr.

So funktioniert „Kunst“ per KI – TECHfacts

Hiervor wird bei DALL-E gewarnt

Wie GeekWire berichtete, versuchte der Ingenieur Shane Jones über die Risiken und Gefahren der dritten Version von DALL-E aufzuklären. In dieser sei es nämlich durch ein Sicherheitsleck möglich, explizite und/oder gewalttätige Bilder zu generieren. Auf LinkedIn postete er im Dezember 2023 öffentlich einen Brief, in welchem er vor den Gefahren warnt.

Nachdem Microsoft angeblich versuchte, den Ingenieur zum Schweigen zu bringen (ein Manager soll von ihm verlangt haben, den Post zu löschen), dieser sich aber nicht unterkriegen ließ, beschloss Shane Jones, sich ans Kapitol zu wenden. In seinem Brief an den US-Senator Patty Murray schrieb er unter anderem:

„Ich bin zu dem Entschluss gekommen, dass DALL-E 3 ein öffentliches Sicherheitsrisiko darstellt und deswegen aus dem öffentlichen Gebrauch entfernt werden sollte, bis OpenAI die Risiken bei diesem Modell adressiert.“ (Ins Deutsche übersetzt durch GIGA.)

So gefährlich könnte ein solches Sicherheitsleck sein

Eine solche Sicherheitslücke kann weitreichende Konsequenzen haben, nicht nur bei Bildern. Beispielsweise Deepfakes, also Videos, die Dinge zeigen und Personen sprechen lassen, die so nie stattgefunden haben. Auch können sogenannte Deepfake-Pornos erstellt werden. Hierbei wird eine künstliche Intelligenz mit verschiedenen Bildern von Gesichtsausdrücken einer Person gefüttert. Dann soll die künstliche Intelligenz diese Ausdrücke auf das Gesicht einer anderen Person in einem Porno-Video einfügen.

Dies wird häufig dazu genutzt, um Deepfake-Pornographie mit berühmten Personen zu erstellen. Am meisten davon betroffen sind weibliche Stars. So auch vor kurzem US-Sängerin Taylor Swift. Über sie wurden explizite und falsche Bilder erstellt. Die große Fanbase Taylor Swifts und auch Social-Media-Plattformen wie X waren in der Lage, die weitere Verbreitung zu verhindern; eine nachhaltige Lösung stellt dies natürlich aber nicht für das Problem dar.

Hat dir der Beitrag gefallen? Folge uns auf WhatsApp und Google News und verpasse keine Neuigkeit rund um Technik, Games und Entertainment.



منبع