Das Leben war früher so viel einfacher, als unsere Social-Media-Feeds nur aus Katzenbildern und Memes bestanden. Doch in letzter Zeit hat sich der Inhalt unserer Feeds stark verändert. Vielleicht sind Ihnen auch schon Fotos begegnet, die zu abwegig erschienen, um wahr zu sein. Und vielleicht haben Sie sogar geglaubt, dass sie echt waren, bis Sie es genauer überprüft haben oder jemand Ihnen die Augen geöffnet hat.
Mit Tools wie Stable Diffusion, Dall-E und Midjourney werden AI-generierte Bilder immer raffinierter, und es wird immer schwieriger zu erkennen, ob einige der Bilder, die Sie online sehen, echt oder gefälscht sind.
In diesem Artikel werden wir uns acht AI-generierte Bilder anschauen, die weltweit viral gegangen sind, und ihre Auswirkungen untersuchen.
Der Papst im Balenciaga-Style
Quelle: Twitter
Wer war nicht auch überrascht und musste ein bisschen lachen, als sich der Papst in einer stylishen Daunenjacke cool und lässig präsentierte? Dieses AI-generierte Bild des Papstes im Balenciaga-Look gehört wohl zu den beeindruckendsten AI-Bildern des Jahres.
Es wurde millionenfach angesehen und von Hunderttausenden geliked.
Der Künstler erklärte, dass er lediglich mit Midjourney experimentierte, als er sich spontan entschloss, surreale Kunst zu schaffen. „Ich fand es einfach lustig, den Papst in so einer Jacke zu sehen.“
Was das Bild so faszinierend macht, ist, dass es so unglaublich natürlich und echt rüberkommt. Das AI-Bild weist keinerlei offensichtliche Anzeichen dafür auf, dass es von einem AI-Generator erstellt wurde, wie merkwürdig aussehende Hände oder Gesichter.
Es präsentiert eine hyperrealistische Ästhetik, die viele hinters Licht gehört hat. Trotz einiger seichter Hinweise auf eine AI-Erzeugung, wie etwa verwischte Details, verbreitete sich das Bild des Papstes im coolen Balenciaga-Look wie ein Lauffeuer auf den Social-Media-Plattformen. Selbst Chrissy Teigen ist darauf hereingefallen und twitterte: „Ich dachte, die Daunenjacke des Papstes sei echt und habe keinen zweiten Gedanken mehr daran verschwendet. Ich werde die Zukunft der Technologie auf keinen Fall überleben.“
Es war einer der ersten Fälle von weitverbreiteter Fehlinformation und verdeutlicht die Macht und potenziellen Risiken dieser Technologie.
Donald Trump Verhaftung
Quelle: Twitter
Zu Beginn dieses Jahres wartete die Welt gespannt darauf, ob der ehemalige Präsident Donald Trump angeklagt würde oder nicht. In dieser Phase wurden zahllose Bilder kreiert, die zeigten, wie es aussehen könnte, wenn Trump verhaftet würde.
Eliot Higgins, Gründer der Journalistenplattform Bellingcat, sorgte am 21. März für Aufsehen, als er auf Twitter verkündete: „Bilder von Trumps Verhaftung erstellen, während wir auf seine tatsächliche Verhaftung warten.“
Er teilte eine Serie von Bildern, die Trump zeigen, wie er von Polizisten abgeführt wird. Der mittels AI erstellte Inhalt wurde mit Midjourney generiert und wurde ganze 6,7 Millionen Mal angesehen.
Higgins wollte die beeindruckende Leistungsfähigkeit der AI-Bildgenerierungs-Tools verdeutlichen. Wir finden, er hat den Nagel aber sowas von auf den Kopf getroffen.
Paris geht im Müll unter
Quelle: Facebook
Beim ersten Blick auf eine beeindruckende Serie von Bildern von Paris, der berühmten „Stadt des Lichts“, könnte man den Eindruck bekommen, dass die Stadt von Müllbergen überwältigt wird. Diese Bilder erscheinen glaubwürdig, da zu dieser Zeit tatsächlich ein Müllstreik stattfand, der zu dramatischen Szenen von Abfällen auf den Straßen und sogar vor den Häusern der Politiker führte. Bei genauerer Betrachtung offenbarte sich jedoch eine unerwartete Wendung in der Geschichte.
Bei genauerer Betrachtung offenbarte sich eine unerwartete Wendung in der Geschichte. Die Bilder, die im August veröffentlicht wurden und den Eiffelturm und das Louvre-Museum von Müll umgeben zeigten, waren jedoch keine Dokumentation der Folgen eines Streiks – sie wurden von AI generiert. Diese Bilder stammen aus einem TikTok-Video, das über 450.000 Mal angesehen wurde.
Die Faktenprüfungsseite AFP konnte die Herkunft der Bilder auf die Facebook-Seite eines Künstlers namens Nik Art zurückverfolgen, der bestätigte, dass die Bilder mit Midjourney erstellt wurden.
AI triumphiert beim renommierten Sony Award.
Quelle: BBC
Die Jury war von Boris Eldagsens Beitrag mit dem Titel „Pseudomnesie: Der Elektriker“ wirklich stark beeindruckt. Seine AI-generierte Arbeit war so herausragend, dass sie dieses Jahr den Sony World Photography Award gewonnen hat.
Doch in Wirklichkeit lehnte Eldagsen den Preis ab, nachdem er enthüllte, dass das prämierte Stück von einer Künstlichen Intelligenz erstellt wurde. In späteren Interviews erklärte er, dass er einen Diskurs über die Rolle der AI in der Zukunft der visuellen Kunst anregen wollte.
Eldagsens eindringliches Schwarz-Weiß-Bild erlangte viralen Status und zeigte eindrucksvoll die Fähigkeit der AI, die Realität überzeugend und nahezu fotorealistisch zu imitieren. Dieser Vorfall hat die Diskussionen über den Platz der AI in der Kunst noch mehr verstärkt, wobei nun viele eine klare Unterscheidung zwischen AI-generierten und menschlich geschaffenen Werken in Wettbewerben fordern.
Pentagon in (falschen) Flammen
Quelle: Bloomberg
Ein weiterer schockierender Eintrag in dieser Liste hat möglicherweise den größten Einfluss darauf gehabt, AI-Bildgenerierung ins Blickfeld der Öffentlichkeit zu rücken. Im Mai dieses Jahres tauchte ein Bild einer Explosion in der Nähe des Pentagons auf Twitter auf.
Obwohl sich der offizielle Urheber nie offenbarte (aus offensichtlichen Gründen), wurde doch recht schnell klar, dass das Bild gefäkscht war. Trotzdem löste das Bild Panik und Verwirrung aus und verursachte sogar Turbulenzen auf dem Aktienmarkt.
Es ist eine deutliche Erinnerung an den potenziellen Missbrauch von AI-Technologie zur Erstellung überzeugender Fälschungen, die sich, kombiniert mit der viralen Natur von Plattformen wie Twitter, schneller verbreiten können, als sie überprüft werden können.
Kompletter Instagram-Account mit fiktiven Personen
Quelle: Ars Technica
Stellen Sie sich vor, Sie tragen die Schuld, Ihre Follower so schwer zu täuschen, dass Sie sich gezwungen fühlen, reinen Tisch zu machen. Am 23. Januar erzählte Jos Avery Ars Technica, dass die Bilder, die er auf Instagram gepostet hatte, „AI-generiert, und menschlich vervollständigt“ waren.
Normalerweise wäre das kein Problem, aber Averys wachsende Fangemeinde war von seinem technischen Können und seinen nahezu meisterhaften Kreationen extrem begeistert. Das Problem dabei war, dass er es nicht übers Herz brachte zuzugeben, dass AI einen großen Teil des künstlerischen Prozesses geleistet hatte.
Hätten wir jemals die Wahrheit erfahren, wenn er den Hintergrundprozess nicht offenbart hätte?
Elon Musk und Barra Hand in Hand
Quelle: Twitter
Als diese Bilder zum ersten Mal auftauchten, war die Überraschung groß: Elon Musk, Hand in Hand mit seiner Konkurrentin von General Motors, Mary Barra.
Das virale Bild, geschaffen von Brian Lovett mit Midjourney, zeigt die beiden rivalisierenden CEOs, wie sie Hand in Hand spazieren, als wären sie ein Paar. Die Absurdität der Situation ließ keinen Zweifel daran, dass es sich um AI-Bilder handelte.
Musk nahm es mit Humor und antwortete: „Dieses Outfit würde ich nie tragen“.
AI-Modell mit mehr Followern als du und ich
Quelle: Instagram
Sich im Laufe des Tages mal ein Influencer-Konto anzuschauen, ist mittlerweile so alltäglich wie das Knipsen von Selfies. Deshalb ist Millia Sophias Bio-Text auf ihrem Instagram-Kanal, „24-jähriges virtuelles Mädchen, das in Helsinki lebt.“, nichts Besonderes mehr.
„Ich bin eine AI-Kreation.“ – und hier wird es dann richtig interessant.
Sofia ist ein AI-generiertes Modell. Alle ihre Bilder auf ihren Social-Media-Plattformen werden ebenfalls mithilfe von AI erstellt, jedoch im für Influencer typischen Format.
Sie wurde erstmals viral, als sie einen TikTok-Clip teilte, auf dem sie in Sommerkleidung vor einem Blumenfeld posierte. Andere TikTok-Nutzer überschütteten sie mit Komplimenten, obwohl öffentlich bekannt war, dass sie ein AI-Modell ist.
Sophia ist ein Beispiel dafür, wie AI-generierte Bilder und Personen in der heutigen Gesellschaft immer mehr Akzeptanz finden. Tatsächlich haben einige AI-Modelle sogar Sponsoring-Deals mit Marken abgeschlossen.
So unterscheidet man zwischen AI-generierten und echten Bildern
Früher war es recht einfach, AI-generierte Bilder von echten zu unterscheiden. Man suchte nach offensichtlichen Anzeichen, wie unscharfen Details oder ungewöhnlichen Darstellungen von Händen und Füßen.
Doch AI wird immer intelligenter, und die Hinweise zu Erkennung von Fakes werden immer subtiler. Um aktuell AI-generierte Bilder zu erkennen, müssen Sie viel genauer hinsehen. Das können Sie tun, indem Sie die folgende SIFT-Methode anwenden:
- Stopp: Nehmen Sie sich einen Moment Zeit, das Bild kritisch zu betrachten, bevor Sie es als echt akzeptieren.
- Untersuchen: Tauchen Sie tiefer ins Bild ein, indem Sie seine Details genau betrachten und nach Unstimmigkeiten oder ungewöhnlichen Elementen suchen.
- Bessere Berichterstattung finden: Suchen Sie nach zusätzlichen Quellen oder verwandten Informationen, die mehr Kontext über die Herkunft und Echtheit des Bildes bieten können.
- Verfolgen Sie den ursprünglichen Kontext: Gehen Sie zurück zur Quelle des Bildes, um seine Legitimität zu überprüfen und die Verbreitung von Fehlinformationen zu stoppen.
Auf diese Weise trennen Sie das Echte vom Falschen und schützen sich vor Falschinformationen.
Wie große Tech-Firmen die Verbreitung von Fehlinformationen bekämpfen
Während Sie wachsam bleiben können, wird es trotzdem zunehmend immer schwieriger zu erkennen, ob ein Bild von AI-Tools generiert wurde oder nicht. Sie können Bilder in leicht zugänglichen Apps wie Dall-E über ein ChatGPT Plus-Abonnement oder Midjourney erstellen.
Das gefälschte Pentagon-Bild sorgte so kurzzeitig für Panik, als das Internet darüber spekulierte, ob es echt sei. Glücklicherweise wurde es schnell als Fälschung entlarvt. Doch die Frage bleibt, ob große Tech-Firmen etwas unternehmen können, um echte von gefälschten Bildern zu unterscheiden.
Eine Möglichkeit wäre die Implementierung unsichtbarer Hinweise oder Wasserzeichen. Google, Adobe und Microsoft befürworten die Kennzeichnung von AI-Inhalten. Google plant, Offenlegungen zu AI-generierten Bildern hinzuzufügen, während Adobes Inhaltsberechtigungen AI-Bearbeitungen verfolgen und wie ein digitales Nährwertetikett fungieren.
Diese Tools sind jedoch nicht narrensicher, und Manipulation ist weiterhin möglich. Trotzdem könnten solche Kennzeichnungen der Schlüssel sein, um in unserer digitalen Welt Wahrheit von Fälschung zu unterscheiden, trotz der großen Herausforderungen.
Abschließende Gedanken
Wie wir gesehen haben, hat die Fähigkeit von AI, Bilder zu erstellen, neue Höhen erreicht, indem sie ganz geschickt Pixel zu nahezu natürlichen Bildern verwebt, die selbst den schärfsten Blick täuschen können.
Diese acht viralen Sensationen sind nur ein Blick in die Zukunft, in der die Grenze zwischen dem Pinselstrich eines Künstlers oder Kameraauslöser und dem Code eines Algorithmus ununterscheidbar wird. Es ist eine Erinnerung daran, dass wir die Wunder solcher Technologien zwar schätzen sollten, aber auch sehr vorsichtig damit umgehen müssen. Wir müssen sicherstellen, dass wir mit einem Fuß fest in der Realität bleiben, wenn wir in die zunehmend komplexe Welt eintreten, die AI für uns bereithält.
Es gibt natürlich auch andere Möglichkeiten, AI für die Bildgenerierung zu nutzen. Wenn Sie ein AI-Tool für Long-Form-Inhalte und Datenvisualisierungen benötigen, warum probieren Sie nicht Piktochart AI aus?
Sie können eine Vielzahl von Visuals aus einem einzigen Prompt generieren. Unser Tool erstellt eine Reihe von Visuals basierend auf Ihrer Eingabe und passt sie den passendsten Vorlagen in unserer umfangreichen Galerie an. Sie müssen nur das Beste auswählen und es dann in unserem Editor anpassen, bis es Ihren Anforderungen entspricht.