KI: Wie Technologie Missverständnisse schürt

Im Januar 2021 veröffentlichte das Forschungslabor für künstliche Intelligenz OpenAI eine eingeschränkte Version einer Software namens Dall-E. Die Software ermöglichte es Benutzern, eine einfache Beschreibung eines Bildes einzugeben, das sie im Sinn hatten, und nach einer kurzen Pause lieferte die Software eine fast unheimlich gute Interpretation ihres Vorschlags, die eines angestellten Illustrators oder Adobe-versierten Designers würdig war – aber viel schneller und kostenlos. Die Eingabe von beispielsweise „ein Schwein mit Flügeln, das über den Mond fliegt, illustriert von Antoine de Saint-Exupéry“ führte nach ein oder zwei Minuten Verarbeitung zu etwas, das an die fleckigen, aber erkennbaren Aquarellpinsel des Schöpfers von „Der kleine Prinz“ erinnerte.

 

AI DALL-E-Screenshots


Ungefähr ein Jahr später, als die Software weiter verbreitet wurde, wurde das Internet wild. Die sozialen Medien wurden mit allen möglichen bizarren und wundersamen Kreationen überschwemmt, einem überquellenden Sammelsurium von Fantasien und künstlerischen Stilen. Und ein paar Monate später geschah es erneut, diesmal mit Sprache und einem Produkt namens ChatGPT, das ebenfalls von OpenAI produziert wurde. Bitten Sie ChatGPT, eine Zusammenfassung des Book of Hiob im Stil des Dichters Allen Ginsberg zu erstellen, und es würde innerhalb von Sekunden einen vernünftigen Versuch liefern. Bitten Sie es, Ginsbergs Gedicht „Howl“ in Form einer Dia-Deck-Präsentation eines Unternehmensberaters wiederzugeben, und es würde es tun. Die Fähigkeit dieser Sendungen, fremde Welten in Wort und Bild heraufzubeschwören, begeisterte das Publikum und den Wunsch

Die letztgenannte Fähigkeit ist als "Prompt Engineering" bekannt geworden: die Technik, eigene Anweisungen so zu formulieren, dass sie vom System am besten verstanden werden, damit es die Ergebnisse zurückgibt, die den Erwartungen am nächsten kommen oder sie vielleicht übertreffen. Tech-Kommentatoren sagten schnell voraus, dass Prompt Engineering in einer Zukunft ohne Code zu einer begehrten und gut bezahlten Stellenbeschreibung werden würde, bei der die mächtigste Art der Interaktion mit intelligenten Systemen über das Medium menschlicher Sprache erfolgen würde. Wir müssten nicht mehr Computercode zeichnen oder schreiben können: Wir flüstern einfach unsere Wünsche in die Maschine und sie erledigt den Rest. Die Grenzen der KI-Kreationen wären die Grenzen unserer eigenen Vorstellungskraft.

Schnell folgten Dall-E-Nachahmer und Weiterentwicklungen. Dall-E mini (später in Craiyon umbenannt) gab denjenigen, die nicht zu den privaten Diensten von OpenAI eingeladen waren, die Möglichkeit, mit einem ähnlichen, weniger leistungsstarken, aber immer noch sehr beeindruckenden Tool herumzuspielen. Inzwischen haben das unabhängige kommerzielle Unternehmen Midjourney und das Open-Source-Programm Stable Diffusion einen anderen Ansatz zur Klassifizierung und Generierung von Bildern verwendet, um im Wesentlichen dieselben Ziele zu erreichen. Innerhalb weniger Monate hatte sich das Feld schnell zu einer kurzen Video- und 3D-Modellgenerierung entwickelt, wobei täglich neue Tools von akademischen Abteilungen und Hobby-Programmierern sowie den etablierten Giganten der sozialen Medien und jetzt KI: Facebook (alias Meta) auftauchten. , Google, Microsoft und andere. Ein neues Forschungs-, Software- und Wettbewerbsfeld hatte sich aufgetan.

Der Name Dall-E verbindet den Roboter-Protagonisten aus Disneys Wall-E mit dem spanischen Surrealisten Salvador Dalí. Auf der einen Seite haben Sie den Charakter einer mutigen, autonomen und liebenswerten kleinen Maschine, die die Trümmer einer zusammengebrochenen menschlichen Zivilisation auffegt, und auf der anderen Seite einen Mann, dessen häufigster Witz lautet: „Diejenigen, die nichts zu imitieren suchen, produzieren nichts. " und "Das Wichtigste ist, Verwirrung zu stiften, nicht sie zu beseitigen." Beide sind bewundernswerte Namensvetter für die breite Palette von Tools, die als KI-Bildgeneratoren bekannt geworden sind.

Die neue Welle der Verbraucher-KI

Im vergangenen Jahr hat diese neue Welle der Verbraucher-KI, die sowohl die Bilderzeugung als auch Tools wie ChatGPT umfasst, die Fantasie aller beflügelt. Es hat auch das Vermögen großer Technologieunternehmen angekurbelt, die es trotz vieler Bemühungen nicht geschafft haben, die meisten von uns davon zu überzeugen, dass entweder Blockchain oder virtuelle Realität („das Metaversum“) die Zukunft ist, die wir alle wollen. Zumindest fühlt sich dieser für etwa fünf Minuten lustig an; und „KI“ hat immer noch diese funkelnde Sci-Fi-Qualität, die an riesige Roboter und übermenschliche Gehirne erinnert, die dem wirklich Neuen nur wenig Zugang bietet. Was sich unter der Haube abspielt, ist natürlich alles andere als neu.

Seit mehreren Jahrzehnten hat es in der akademischen Disziplin der künstlichen Intelligenz keine großen Durchbrüche gegeben. Die zugrunde liegende Technologie neuronaler Netze – eine Methode des maschinellen Lernens, die auf der Funktionsweise des physischen Gehirns basiert – wurde bereits in den 1990er Jahren theoretisiert und sogar in die Praxis umgesetzt. Schon damals konnte man damit Bilder erstellen, aber es waren meist formlose Abstraktionen, Farbkleckse mit wenig emotionaler oder ästhetischer Resonanz. Die ersten überzeugenden KI-Chatbots liegen noch weiter zurück. 1964 entwickelte Joseph Weizenbaum, ein Informatiker am Massachusetts Institute of Technology, einen Chatbot namens Eliza. Eliza wurde nach dem Vorbild einer "personenzentrierten" Psychotherapeutin modelliert: Was immer Sie sagten, würde zu Ihnen zurückgespiegelt werden.

Frühe KIs wussten nicht viel über die Welt, und akademischen Abteilungen fehlte die Rechenleistung, um sie in großem Umfang einzusetzen. Der Unterschied liegt heute nicht in der Intelligenz, sondern in Daten und Macht. Die großen Technologieunternehmen haben 20 Jahre damit verbracht, riesige Datenmengen aus Kultur und Alltag zu sammeln und riesige, stromhungrige Rechenzentren mit immer leistungsfähigeren Computern zu ihrer Verarbeitung zu bauen. Was einst knarrende alte neuronale Netze waren, sind zu Superkräften geworden, und der Anstieg der KI, den wir sehen, ist das Ergebnis.

Die KI-Bilderzeugung beruht auf der Zusammenstellung und Analyse von Abermillionen markierter Bilder; Also Bilder, die bereits mit einer Art Beschreibung ihres Inhalts versehen sind. Diese Bilder und Beschreibungen werden dann von neuronalen Netzwerken verarbeitet, die lernen, spezifische und tief nuancierte Qualitäten des Bildes – Formen, Farben, Kompositionen – mit bestimmten Wörtern und Phrasen zu assoziieren. Diese Qualitäten werden dann übereinander geschichtet, um neue Anordnungen von Form, Farbe und Komposition zu schaffen, basierend auf den Milliarden unterschiedlich gewichteter Assoziationen, die durch eine einfache Aufforderung erzeugt werden. Aber woher kamen all diese Originalbilder?

Die von LAION, einer deutschen gemeinnützigen Organisation, veröffentlichten Datensätze sind ein gutes Beispiel für die Art von Bild-Text-Sammlungen, die verwendet werden, um große KI-Modelle zu trainieren (sie bildeten die Grundlage von Stable Diffusion und Googles Imagen). Seit mehr als einem Jahrzehnt indiziert und speichert eine andere gemeinnützige Weborganisation, Common Crawl, so viel wie möglich vom öffentlichen World Wide Web und archiviert jeden Monat bis zu 3 Milliarden Seiten. LAION-Forscher nahmen einen Teil der Common Crawl-Daten und zogen jedes Bild mit einem „alt“-Tag, einer Textzeile oder etwas anderem heraus, das zur Beschreibung von Bildern auf Webseiten verwendet werden sollte.

Digitalkünstler namens Lapine
 
Im September 2022 verwendete ein in San Francisco ansässiger Digitalkünstler namens Lapine ein Tool namens Have I Been Trained, mit dem Künstler sehen können, ob ihre Arbeit zum Trainieren von KI-Bildgebungsmodellen verwendet wird. Have I Been Trained wurde von den Künstlern Mat Dryhurst und Holly Herndon geschaffen, deren eigene Arbeit sie dazu veranlasste, die Art und Weise zu untersuchen, wie die Arbeit von Künstlern von KI vereinnahmt wird. Als Lapine damit die LAION-Datenbank durchsuchte, fand sie ein Bild ihres eigenen Gesichts. Sie konnte dieses Bild auf Fotos zurückführen, die ein Arzt während der Behandlung einer seltenen genetischen Erkrankung aufgenommen hatte. Die Fotos wurden als Teil ihrer klinischen Dokumentation aufgenommen und sie unterzeichnete Dokumente, die ihre Verwendung ausschließlich auf ihre Krankenakten beschränkten. Der betroffene Arzt starb 2018. Irgendwie landeten diese privaten medizinischen Bilder online, dann im Common Crawl-Archiv und im Datensatz von LAION, und traten schließlich in die neuronalen Netze ein, als sie die Bedeutung von Bildern und die Erstellung neuer Bilder lernten. Soweit wir wissen, könnte die gesprenkelte rosa Textur unseres Schweinchens im Saint-Exupéry-Stil, so subtil sie auch sein mag, aus dem rohen Fleisch eines Krebspatienten gemischt worden sein.

Schweinchen im Saint-Exupéry-Stil

„Es ist das digitale Äquivalent zu gestohlenem Eigentum. Jemand hat das Bild aus den Akten meines verstorbenen Arztes gestohlen und es landete irgendwo im Internet, und dann wurde es in diese Aufzeichnung gekratzt“, sagte Lapine zu Ars Technica. „Es ist schlimm genug, dass ein Foto durchgesickert ist, aber jetzt ist es Teil eines Produkts . Und das gilt für alle Fotos, Krankenakten oder nicht. Und das Potenzial für zukünftigen Missbrauch ist wirklich hoch." (Laut ihrem Twitter-Account verwendet Lapine weiterhin Tools wie Dall-E, um ihre eigene Kunst zu machen.)

Alle diese Arten von öffentlich verfügbarer KI, ob sie mit Bildern oder Wörtern arbeiten, und die vielen datengesteuerten Anwendungen dieser Art basieren auf dieser enormen Aneignung der bestehenden Kultur, deren Ausmaß wir kaum begreifen können. Öffentlich oder privat, legal oder anderweitig, die meisten Texte und Bilder, die von diesen Systemen zusammengekratzt werden, befinden sich im nebulösen Bereich der „Fair Use“ (in den USA erlaubt, aber in der EU fragwürdig, wenn nicht gar illegal). Wie bei den meisten Operationen in fortschrittlichen neuronalen Netzwerken ist es wirklich unmöglich, von außen zu verstehen, wie sie funktionieren, abgesehen von seltenen Begegnungen wie der von Lapine.   Aber wir können sicher sein:  Die Ergebnisse dieser Art von KI sind alles andere als magisch,

KI besitzt ART

Die KI-Bild- und Textgenerierung ist reine primitive Akkumulation:  Enteignung der Arbeitskraft vieler, um einige Technologieunternehmen aus dem Silicon Valley und ihre milliardenschweren Eigentümer zu bereichern und voranzubringen. Diese Unternehmen verdienten ihr Geld, indem sie sich in jeden Aspekt des täglichen Lebens einmischten, einschließlich der persönlichsten und kreativsten Bereiche unseres Lebens: unsere geheimen Leidenschaften, unsere privaten Gespräche, unsere Ähnlichkeiten und unsere Träume. Sie umkreisten unsere Vorstellungskraft in ähnlicher Weise, wie einst Grundbesitzer und Raubritter Gemeingüter umkreisten. Sie versprachen, dass sie dadurch neue Bereiche menschlicher Erfahrung eröffnen, uns Zugang zu allem menschlichen Wissen verschaffen und neue Arten menschlicher Verbindungen schaffen würden.

Die Verrücktheit der KI-Bildgebung ist sowohl Ausgabe als auch Eingabe. Ein Benutzer versuchte, unsinnige Ausdrücke einzugeben, und war verwirrt und etwas unbehaglich, als er feststellte, dass der Dall-E mini eine sehr gute Vorstellung davon zu haben schien, was ein „Crungus“ war: ein ansonsten ungewohnter Ausdruck, der durchweg Bilder eines knurrenden, nackten Ogers enthielt -ähnliche Figur hergestellt. Crungus war in der Vorstellungskraft des Programms so klar, dass er leicht manipuliert werden konnte: Andere Benutzer boten schnell Bilder von alten Crungus-Wandteppichen, Crungus-Mosaiken im römischen Stil, Ölgemälde von Crungus, Fotos von Crungus, der verschiedene Prominente umarmt, und, das ist das Internet, bei , "sexy" Crungus.

Wer oder was ist Crungus? Twitter-Nutzer nannten ihn schnell „den ersten KI-Kryptiden“, eine Kreatur wie Bigfoot, die in diesem Fall im wenig erforschten Terrain der Vorstellungskraft der KI existiert. Und das ist ungefähr die klarste Antwort, die wir zu diesem Zeitpunkt angesichts unseres begrenzten Verständnisses der Funktionsweise des Systems erhalten können. Wir können seine Entscheidungsprozesse nicht untersuchen, weil die Art und Weise, wie diese neuronalen Netze „denken“, von Natur aus unmenschlich ist. Es ist das Produkt einer unglaublich komplexen, mathematischen Ordnung der Welt, im Gegensatz zu der historischen, emotionalen Art und Weise, wie Menschen ihr Denken ordnen. Der Crungus ist ein Traum, der aus dem Weltmodell der KI hervorgeht, zusammengesetzt aus Milliarden von Referenzen, die ihrem Ursprung entkommen sind und zu einer mythologischen Figur verschmolzen sind, die von der menschlichen Erfahrung losgelöst ist. Was gut ist, sogar erstaunlich - aber es stellt sich die Frage, auf wessen Träume wir hier zurückgreifen? Welche Zusammensetzung der menschlichen Kultur, welche Perspektive darauf hat diesen Albtraum geschaffen?

Eine ähnliche Erfahrung machte ein anderer digitaler Künstler, der mit negativen Aufforderungen experimentierte, einer Technik, um das zu erschaffen, was das System als das genaue Gegenteil von dem, was beschrieben wird, sieht. Als der Künstler „Brando::-1“ eingab, gab das System etwas zurück, das ein bisschen wie ein Logo für eine Videospielfirma namens DIGITA PNTICS aussah. Dass dies das Gegenteil von Marlon Brando über die verschiedenen Dimensionen der Weltanschauung des Systems hinweg sein könnte, scheint vernünftig genug. Aber als sie bestätigten, dass es in die andere Richtung ging, indem sie „DIGITA PNTICS skyline logo::-1“ eingaben, passierte etwas weitaus Seltsameres: Alle Bilder zeigten eine finster aussehende Frau mit eingesunkenen Augen und geröteten Wangen, die der Künstler Loab nannte. Einmal entdeckt, wirkte Loab ungewöhnlich und beunruhigend hartnäckig. Bild erneut in das Programm einspeisen,

Hier ist eine Erklärung für Loab und möglicherweise Crungus: Während es sehr, sehr schwer ist, sich vorzustellen, wie die Vorstellungskraft der Maschine funktioniert, ist es möglich, sich vorzustellen, dass sie eine Form hat. Diese Form wird niemals glatt oder sauber abgerundet sein, sondern Täler und Gipfel, Berge und Täler, Bereiche mit reichhaltigen Informationen und Bereiche, denen viele Merkmale fehlen. Diese Bereiche mit hohem Informationsgehalt entsprechen Assoziationsnetzwerken, über die das System viel „weiß“. Man kann sich vorstellen, dass die Regionen, die sich beispielsweise auf menschliche Gesichter, Autos und Katzen beziehen, angesichts der Verteilung von Bildern, die bei der Untersuchung des gesamten Internets gefunden wurden, ziemlich dicht sind.

Ein KI-Bildgenerator wird sich bei der Erstellung seiner Bilder am meisten auf diese Regionen verlassen. Aber es gibt auch andere weniger besuchte Orte, die ins Spiel kommen, wenn negative Aufforderungen – oder eigentlich unsinnige Phrasen – verwendet werden. Um solche Anfragen zu beantworten, muss die Maschine auf esoterischere, weniger sichere Verbindungen zurückgreifen und vielleicht sogar aus der Gesamtheit ihres Wissens auf das Gegenteil schließen. Hier im Hinterland sind Loab und Crungus zu finden.

Das ist eine befriedigende Theorie, aber sie wirft gewisse unbequeme Fragen darüber auf, warum Crungus und Loab so aussehen; warum sie zu Horror und Gewalt neigen, warum sie Albträume andeuten. KI-Bildgeneratoren scheinen bei ihrem Versuch, die gesamte menschliche visuelle Kultur zu verstehen und zu replizieren, selbst unsere dunkelsten Ängste nachgebildet zu haben. Vielleicht ist dies nur ein Zeichen dafür, dass diese Systeme wirklich sehr gut darin sind, das menschliche Bewusstsein nachzuahmen, bis hin zu den Schrecken, die in den Tiefen der Existenz lauern: unsere Angst vor Schmutz, Tod und Korruption. Und wenn ja, müssen wir anerkennen, dass diese dauerhafte Bestandteile der Maschinen sein werden, die wir nach unserem eigenen Bild bauen. Es gibt kein Entrinnen vor solchen Obsessionen und Gefahren, kein Abschwächen oder Wegkonstruieren der Realität der menschlichen Existenz.

Das ist wichtig, denn KI-Bildgeneratoren werden das tun, was alle bisherigen Technologien getan haben, aber sie werden noch weiter gehen. Sie werden die Vorurteile und Vorurteile derjenigen reproduzieren, die sie erschaffen, wie die Webcams, die nur weiße Gesichter erkennen, oder die vorausschauenden Polizeisysteme, die einkommensschwache Viertel belagern. Und sie werden auch das Spiel verbessern: Die Skala der KI-Leistung verschiebt sich vom engen Bereich der Rätsel und Herausforderungen – Schach oder Go spielen oder das Befolgen von Verkehrsregeln – in den viel breiteren Bereich der Vorstellungskraft und Kreativität.

Während Behauptungen über die „Kreativität“ der KI übertrieben sein mögen – es gibt keine echte Originalität bei der Bilderzeugung, nur sehr geschickte Nachahmung und Nachahmung – bedeutet dies nicht, dass sie nicht in der Lage ist, viele gängige „künstlerische“ Aufgaben zu übernehmen, die lange als die Domäne von Experten galten Arbeiter, von Illustratoren und Grafikdesignern bis hin zu Musikern, Videografen und sogar Schriftstellern. Das ist eine riesige Verschiebung. KI befasst sich jetzt mit der zugrunde liegenden Erfahrung von Gefühlen, Emotionen und Stimmungen, und dies wird es ihr ermöglichen, die Welt auf immer tieferen und überzeugenderen Ebenen zu formen und zu beeinflussen.

KI und menschliche Kreativität könnten interagieren

ChatGPT wurde im November 2022 von OpenAI eingeführt und hat unser Verständnis davon, wie KI und menschliche Kreativität interagieren könnten, weiter verändert. Als Chatbot strukturiert – ein Programm, das menschliche Konversation nachahmt – kann ChatGPT viel mehr als Konversation. Wenn Sie dazu aufgefordert werden, ist es in der Lage, funktionierenden Computercode zu schreiben, mathematische Probleme zu lösen und allgemeine Schreibaufgaben nachzuahmen, von Buchbesprechungen bis hin zu wissenschaftlichen Arbeiten, Hochzeitsreden und Rechtsverträgen.

Es war sofort klar, wie das Programm für diejenigen eine Wohltat sein könnte, die sich zum Beispiel beim Schreiben von E-Mails oder Aufsätzen schwer tun, aber auch wie ein Bildgenerator diejenigen ersetzen könnte, die von diesen Aufgaben leben. Viele Schulen und Universitäten haben bereits Richtlinien eingeführt, die die Verwendung von ChatGPT verbieten, da befürchtet wird, dass Studenten es zum Schreiben ihrer Aufsätze verwenden werden, während die akademische Zeitschrift Nature Richtlinien veröffentlichen musste, die erklären, warum das Programm nicht als Forschungsautor angesehen wird (es kann keine Zustimmung geben). und kann nicht zur Rechenschaft gezogen werden). Aber die Institutionen selbst sind nicht immun gegen den unangemessenen Einsatz des Tools: Im Februar hat das Peabody College for Education and Human Development, Teil der Vanderbilt University in Tennessee, schockierte Schüler, als es nach einer Schießerei in einer Schule in Michigan ein Beileidsschreiben und Ratschläge herausgab. Während der Brief vom Wert der Gemeinschaft, gegenseitigem Respekt und Zusammengehörigkeit sprach, wies eine Notiz am Ende darauf hin, dass er von ChatGPT geschrieben wurde – was sich für viele sowohl moralisch falsch als auch irgendwie falsch oder unheimlich anfühlte. Es scheint viele Lebensbereiche zu geben, in denen Maschineneingriffe tieferes Nachdenken erfordern. gegenseitiger Respekt und Zusammengehörigkeit, eine Notiz am Ende besagte, dass es von ChatGPT geschrieben wurde - was sich für viele sowohl moralisch falsch als auch irgendwie falsch oder unheimlich anfühlte. Es scheint viele Lebensbereiche zu geben, in denen Maschineneingriffe tieferes Nachdenken erfordern. gegenseitiger Respekt und Zusammengehörigkeit, eine Notiz am Ende besagte, dass es von ChatGPT geschrieben wurde - was sich für viele sowohl moralisch falsch als auch irgendwie falsch oder unheimlich anfühlte.

Wenn es unangemessen wäre, unsere gesamte Kommunikation durch ChatGPT zu ersetzen, dann ist ein klarer Trend, dass es zu einer Art cleverem Assistenten wird, der uns durch den Morast des verfügbaren Wissens zu den Informationen führt, nach denen wir suchen. Vorreiter in dieser Richtung war Microsoft, der mit ChatGPT seine oft verachtete Suchmaschine Bing zum Chatbot umkonfigurierte und damit deren Popularität massiv steigerte. Aber trotz der Online- (und journalistischen) Eile, ChatGPT zu fast jedem erdenklichen Thema zu konsultieren, ist seine Beziehung zum Wissen selbst etwas wackelig.

Eine kürzliche persönliche Interaktion mit ChatGPT verlief so. Ich bat sie, mir einige Bücher vorzuschlagen, die ich lesen sollte, basierend auf einem neuen Interessengebiet: Multispezies-Demokratie, die Idee, nicht-menschliche Kreaturen in die politische Entscheidungsfindung einzubeziehen. Es ist so ziemlich die nützlichste Anwendung des Tools: "Hey, hier ist etwas, worüber ich nachdenke, können Sie mir mehr erzählen?" und ChatGPT verpflichtet. Es gab mir eine Liste mit mehreren Büchern, die dieses neuartige Interessengebiet eingehend untersuchten, und erklärte in überzeugender menschlicher Sprache, warum ich sie lesen sollte. Das war wunderbar! Es stellte sich jedoch heraus, dass nur eines der vier aufgeführten Bücher tatsächlich existiert, und einige der Konzepte, die ChatGPT meiner Meinung nach weiter untersuchen sollte,

Nun, das ist nicht passiert, weil ChatGPT von Natur aus rechts ist. Es ist, weil es von Natur aus dumm ist. Es hat den größten Teil des Internets gelesen und weiß, wie menschliche Sprache klingen soll, aber es hat keinen Bezug zur Realität. Es sind Traumphrasen, die ungefähr richtig klingen, und ehrlich gesagt ist es ungefähr so interessant, ihm zuzuhören, wie jemandes Träumen zuzuhören. Es ist sehr gut darin, das zu produzieren, was nach Sinn klingt, und am besten die Klischees und Banalitäten zu produzieren, die den Großteil seiner Ernährung ausmachen, aber es bleibt unfähig, sich sinnvoll auf die Welt zu beziehen, wie sie tatsächlich ist. Misstrauen Sie jedem, der vorgibt, dies sei ein Echo oder sogar eine Annäherung an das Bewusstsein. (Als dieses Stück veröffentlicht werden sollte,

Zu glauben, dass diese Art von KI tatsächlich sachkundig oder sinnvoll ist, ist aktiv gefährlich. Es besteht die Gefahr, dass der Brunnen des kollektiven Denkens und unsere Fähigkeit, überhaupt zu denken, vergiftet werden. Wenn, wie von Technologieunternehmen vorgeschlagen, die Ergebnisse von ChatGPT-Abfragen als Antworten für diejenigen bereitgestellt werden, die online nach Wissen suchen, und wenn, wie von einigen Kommentatoren vorgeschlagen, ChatGPT im Klassenzimmer als Lehrmittel verwendet wird, dann werden die Halluzinationen in sein in die permanente Aufzeichnung eintreten und sich effektiv zwischen uns und legitimere, überprüfbare Informationsquellen stellen, bis die Grenze zwischen den beiden so verschwommen ist, dass sie unsichtbar wird. Darüber hinaus war unsere Fähigkeit als Einzelpersonen, Wissen in unserem eigenen Namen zu erforschen und kritisch zu bewerten, noch nie so notwendig, nicht zuletzt wegen des Schadens, den Tech-Unternehmen der Art und Weise, wie Informationen verbreitet werden, bereits zugefügt haben. Unser volles Vertrauen in die Träume schlecht programmierter Maschinen zu setzen, hieße, solch kritisches Denken ganz aufzugeben.


 KI-Technologien sind auch schlecht für den Planeten. Laut einer 2019 veröffentlichten Studie könnte das Training eines einzigen KI-Modells das Äquivalent von mehr als 284 Tonnen Kohlendioxid ausstoßen, was fast dem Fünffachen der gesamten Lebensdauer eines durchschnittlichen amerikanischen Autos einschließlich seiner Herstellung entspricht. Diese Emissionen werden in den nächsten fünf Jahren voraussichtlich um fast 50 % zunehmen, da sich der Planet weiter aufheizt, Ozeane versauert, Waldbrände entzündet, Superstürme auslöst und Arten zum Aussterben bringt. Etwas völlig Dummeres als künstliche Intelligenz, wie sie heute praktiziert wird, ist kaum vorstellbar.

Gehen wir also einen Schritt zurück. Wenn diese aktuellen Inkarnationen „künstlicher“ „Intelligenz“ so langweilig sind, was sind dann die Alternativen? Können wir uns leistungsstarke Technologien zum Sortieren und Kommunizieren von Informationen vorstellen, die uns nicht ausbeuten, missbrauchen, irreführen und ersetzen? Ja, das können wir – sobald wir aus den Machtnetzwerken der Unternehmen heraustreten, die die aktuelle KI-Welle definieren.

Tatsächlich gibt es bereits Beispiele dafür, dass KI zum Nutzen bestimmter Gemeinschaften eingesetzt wird, indem die fest verwurzelte Macht von Unternehmen umgangen wird. Indigene Sprachen sind weltweit bedroht. Die UNO schätzt, dass alle zwei Wochen einer verschwindet, und mit diesem Verschwinden kommen Generationen von Wissen und Erfahrung. Dieses Problem, das Ergebnis von Jahrhunderten des Kolonialismus und der rassistischen Assimilationspolitik, wird durch die zunehmende Dominanz maschinell lernender Sprachmodelle verschärft, die dafür sorgen, dass populäre Sprachen ihre Macht steigern, während weniger bekannte Sprachen ihres Ruhms und ihres Fachwissens beraubt werden.

In Aotearoa, Neuseeland, beschloss ein kleiner gemeinnütziger Radiosender namens Te Hiku Media, der in der Māori-Sprache sendete, diese Diskrepanz zwischen der Darstellung verschiedener Sprachen in der Technologie anzugehen. Sein riesiges Archiv von mehr als 20 Jahren Sendungen, das eine breite Palette von Redewendungen, Slang-Ausdrücken und einzigartigen Redewendungen darstellt, von denen viele von niemandem mehr gesprochen werden, wurde digitalisiert, musste aber transkribiert werden, um für Linguisten und Sprachforscher von Nutzen zu sein die Māori-Gemeinde. Als Reaktion darauf beschloss der Radiosender, sein eigenes Spracherkennungsmodell zu trainieren, damit es in der Lage wäre, sein Archiv zu "hören" und Transkriptionen zu erstellen.

In den nächsten Jahren erreichte Te Hiku Media mit Open-Source-Technologien und selbstentwickelten Systemen das nahezu Unmögliche: ein hochpräzises Spracherkennungssystem für die Māori-Sprache, das von seiner eigenen Sprachgemeinschaft entwickelt und besessen wurde. Es war mehr als eine Softwareausgabe. Die Station kontaktierte jede Māori-Gemeinschaftsgruppe, die sie finden konnte, und bat sie, sich selbst aufzunehmen, während sie vorgefertigte Aussagen sprach, um einen Korpus kommentierter Reden bereitzustellen, eine Voraussetzung für das Training ihres Modells.

Es gab einen Geldpreis für denjenigen, der die meisten Sätze einreichte – ein Aktivist, Te Mihinga Komene, zeichnete allein 4.000 Sätze auf –, aber die Organisatoren stellten fest, dass die größte Motivation für die Mitwirkenden eine gemeinsame Vision war, die Sprache wiederzubeleben, und die ihnen gleichzeitig gehörte die Gemeinde. Innerhalb weniger Wochen erstellte es ein Modell, das aufgezeichnete Sprache mit einer Genauigkeit von 86 % erkannte – mehr als genug, um mit der Transkription seines gesamten Archivs zu beginnen.

Die Leistung von Te Hiku Media ebnete den Weg für andere indigene Gruppen, die nun ähnliche Projekte von Mohawk-Völkern im Südosten Kanadas und einheimischen Hawaiianern durchführen. Es begründete auch das Prinzip der Datenhoheit in Bezug auf indigene Sprachen und damit auch auf andere Formen indigenen Wissens. Als internationale gewinnorientierte Unternehmen begannen, sich an Māori-Sprecher zu wenden, um ihnen beim Aufbau ihrer eigenen Modelle zu helfen, kämpfte Te Hiku Media gegen diese Bemühungen und argumentierte: „Sie haben unsere Sprachen unterdrückt und sie physisch aus unseren Großeltern geschlagen, und jetzt wollen sie unsere verkaufen Sprache als Dienstleistung an uns zurück.“


„Daten sind die letzte Grenze der Kolonialisierung“, schrieb Keoni Mahelona, ein gebürtiger Hawaiianer und einer der Mitbegründer von Te Hiku Media. Alle Arbeiten von Te Hiku werden unter der sogenannten Kaitiakitanga-Lizenz veröffentlicht, einer gesetzlichen Garantie für Vormundschaft und Verwahrung, die sicherstellt, dass alle Daten, die in das Sprachmodell und andere Projekte eingeflossen sind, Eigentum der Gemeinschaft bleiben, die sie erstellt hat – in diesem Fall , die Māori-Sprecher, die ihre Hilfe angeboten haben – und sie können sie lizenzieren oder nicht, wie sie es gemäß ihrem Tikanga (Māori-Bräuche und -Protokolle) für richtig halten. Auf diese Weise wird die Māori-Sprache wiederbelebt und gleichzeitig den Systemen des digitalen Kolonialismus getrotzt und transformiert.

Ich denke, die Lehre aus der aktuellen Welle „künstlicher“ „Intelligenz“ ist, dass Intelligenz eine schlechte Sache ist, wenn sie sich von Unternehmen einbildet. Wenn Ihre Weltanschauung eine ist, in der Gewinnmaximierung der König der Tugenden ist und alle Dinge am Maßstab des Shareholder Value gemessen werden sollten, dann werden Ihre künstlerischen, phantasievollen, ästhetischen und emotionalen Ausdrucksformen natürlich kläglich verarmt sein. Wir verdienen etwas Besseres in Bezug auf die Tools, die wir verwenden, die Medien, die wir konsumieren, und die Gemeinschaften, in denen wir leben, und wir werden nur das bekommen, was wir verdienen, wenn wir in der Lage sind, unser Bestes zu geben, um daran teilzunehmen. Und lassen Sie sich davon auch nicht einschüchtern – sie sind wirklich nicht so kompliziert.   Ursula K. Le Guin   schrieb: „Technologie ist das, was wir lernen können.“

 

 

 

Kommentar veröffentlichen

0Kommentare
Kommentar veröffentlichen (0)

#buttons=(Accept !) #days=(20)

Our website uses cookies to enhance your experience. Learn More
Accept !