So erkennen Sie den KI-Hype und vermeiden den „KI-Schwindel“, laut zwei Experten.

In ihrem neuen Buch „The AI ​​Con“ entmystifizieren die KI-Kritiker Emily Binder und Alex Hanna die generative KI.

„Offen gesagt ist künstliche Intelligenz ein Schwindel: eine Ware, die Ihnen verkauft wird, um jemandem die Taschen zu füllen.“

Dies ist der Kern des Arguments der Linguistik. Emily Bender und Soziologe Alex Hanna In ihrem neuen Buch Die KI-Con. Es handelt sich um einen nützlichen Leitfaden für alle, die in ihrem Leben schon einmal mit Technologien in Berührung gekommen sind, die als KI verkauft werden, und für alle, die ihren wahren Nutzen in Frage gestellt haben – und das trifft auf die meisten von uns zu. Bender ist Professor an der University of Washington und wurde vom Time Magazine zu einem der einflussreichsten Menschen im Bereich der KI ernannt. Hanna ist Forschungsleiterin bei der gemeinnützigen Organisation Verteiltes KI-Forschungsinstitut Ein ehemaliges Mitglied des Ethical AI-Teams von Google.

Ein Buchcover

Die enorme Popularität von ChatGPT Ende 2022 hat einen neuen Medienhype um künstliche Intelligenz ausgelöst. Hype ist nach der Definition der Autoren der „Hype“ um eine Technologie, von der Sie überzeugt sind, dass Sie sie kaufen oder in sie investieren müssen, „damit Sie weder den Spaß noch die finanzielle Belohnung, den Return on Investment oder den Marktanteil verpassen.“ Doch dies ist nicht das erste Mal und wird wahrscheinlich auch nicht das letzte Mal sein, dass Wissenschaftler, Regierungschefs und normale Bürger von der Idee des maschinellen Lernens und der künstlichen Intelligenz angezogen und beunruhigt werden.

Binder und Hanna verfolgen die Wurzeln des maschinellen Lernens bis in die 1950er Jahre zurück, als der Mathematiker John McCarthy den Begriff „künstliche Intelligenz“ prägte. Dies war eine Ära, in der die Vereinigten Staaten nach Möglichkeiten suchten, Projekte zu finanzieren, die dem Land dabei helfen würden, eine gewisse militärische, ideologische und technologische Überlegenheit gegenüber den Sowjets zu erlangen. „Es ist nicht einfach aus Zeus‘ Kopf gesprungen oder so etwas. Es hat eine längere Geschichte“, sagte Hanna gegenüber CNET. „Dies ist sicherlich nicht der erste Hype-Zyklus mit, Zitat, KI.“

Der heutige Hype-Zyklus wird durch Risikokapitalinvestitionen in Milliardenhöhe in Startups wie OpenAI und Technologiegiganten wie Meta, Google und Microsoft angetrieben, die Milliarden in die KI-Forschung und -Entwicklung stecken. Das Ergebnis ist eindeutig, denn die neuesten Telefone Laptops und Software-Updates sind voll von KI-Wäsche. Es gibt keine Anzeichen dafür, dass sich die Forschung und Entwicklung im Bereich der künstlichen Intelligenz verlangsamen wird, da der Drang, China bei der Entwicklung künstlicher Intelligenz zu überholen, zunimmt. Dies ist eigentlich nicht der erste Medien-Hype-Zyklus.

Natürlich ist die generative KI im Jahr 2025 viel weiter fortgeschritten als der Psychotherapie-Chatbot Eliza, der die Wissenschaftler erstmals in den XNUMXer Jahren faszinierte. Führungskräfte und Mitarbeiter von Unternehmen werden heute mit Medienrummel überschwemmt, mit einer großen Portion Angst, etwas zu verpassen, und scheinbar komplexer, aber oft falsch verwendeter Terminologie. Wenn man den Experten der Technologiebranche und KI-Enthusiasten zuhört, könnte man meinen, dass KI Ihnen die Arbeit wegnimmt und Ihrem Unternehmen Geld spart. Doch argumentieren die Autoren, dass beides nicht unbedingt wahrscheinlich sei. Deshalb sei es wichtig, den Medienrummel zu erkennen und zu durchbrechen.

Wie erkennen wir also einen KI-Hype? Binder und Hanna nennen einige verräterische Anzeichen, die wir im Folgenden vorstellen. Die Autoren skizzieren in ihrem Buch „Künstliche Intelligenz: Eine neue Dimension der KI-Hype-Forschung“ eine Reihe von Fragen und Strategien zur Erkennung eines KI-Hypes. Jetzt verfügbar Im Internet.

Achten Sie auf die Sprache, die KI humanisiert.

Die Humanisierung, also der Prozess, einem unbelebten Objekt menschenähnliche Eigenschaften oder Merkmale zu verleihen, ist ein großer Teil des KI-Hypes. Ein Beispiel für diese Art von Sprache ist, wenn KI-Unternehmen sagen, dass ihre Chatbots jetzt „sehen“ und „denken“ können.

Diese Vergleiche können hilfreich sein, wenn man die Fähigkeit neuer KI-Programme beschreiben möchte, Objekte oder KI-Modelle mithilfe tiefgründiger Schlussfolgerungen zu identifizieren. Sie können jedoch auch irreführend sein. KI-gesteuerte Chatbots können weder sehen noch denken, weil sie keinen Verstand haben. Sogar die Idee neuronaler Netzwerke basiert, wie Hannah in unserem Interview und in dem Buch betont, auf einem menschlichen Verständnis von Neuronen aus den 1950er Jahren. Es beschreibt zwar nicht die tatsächliche Funktionsweise von Neuronen, kann uns aber dazu verleiten zu glauben, dass hinter der Maschine ein Verstand steckt.

Aufgrund der Art und Weise, wie wir als Menschen Sprache verarbeiten, sind wir zu dieser Überzeugung veranlagt. Wir sind darauf konditioniert, uns vorzustellen, dass hinter dem Text, den wir sehen, ein Geist steckt, selbst wenn wir wissen, dass er von künstlicher Intelligenz erstellt wurde, sagte Bender. „Wir interpretieren Sprache, indem wir in unserem Kopf ein Modell davon entwickeln, wer der Sprecher war“, fügte Bandar hinzu.

In diesen Modellen nutzen wir unser Wissen über die sprechende Person, um Bedeutung zu erzeugen, und nicht nur die Bedeutung der Worte, die sie sagt. „Wenn wir also auf synthetischen Text stoßen, der von etwas wie ChatGPT generiert wurde, werden wir dasselbe tun“, sagte Bandar. „Es ist sehr schwierig, uns daran zu erinnern, dass der Verstand nicht existiert. Er ist nur ein Konstrukt, das wir geschaffen haben.“

Die Autoren argumentieren, dass KI-Unternehmen uns unter anderem deshalb davon überzeugen wollen, dass ihre Produkte menschenähnlich sind, weil sie damit die Grundlage dafür legen, uns davon zu überzeugen, dass KI Menschen ersetzen kann, sei es bei der Arbeit oder als Schöpfer. Es ist überzeugend, dass KI die Wunderlösung für komplexe Probleme in kritischen Branchen wie dem Gesundheitswesen und staatlichen Dienstleistungen sein könnte.

Doch meistens, so argumentieren die Autoren, werde KI nicht eingesetzt, um Probleme zu beheben. KI wird aus Effizienzgründen verkauft, doch KI-Dienste ersetzen letztlich Facharbeiter durch Blackbox-Maschinen, die einen erheblichen Pflegeaufwand durch schlecht bezahlte Vertragsarbeiter oder Freiberufler erfordern. Wie Hannah in unserem Interview sagte: „KI wird Ihnen Ihren Job nicht wegnehmen, aber sie wird ihn schlechter machen.“

Seien Sie vorsichtig mit dem Ausdruck „Superintelligenz“.

Wenn Menschen etwas nicht können, sollten Sie bei Behauptungen, dass KI dazu in der Lage sei, vorsichtig sein. „Superintelligenz oder Superintelligenz ist ein sehr gefährlicher Begriff, da er suggeriert, dass eine bestimmte Technologie den Menschen überflüssig machen wird“, sagte Hannah. „In bestimmten Bereichen, wie etwa beim Mustervergleich im großen Maßstab, sind Computer sehr gut darin. Aber wenn die Idee besteht, dass ein Gedicht oder eine Idee für die Forschung oder die wissenschaftliche Praxis zu einem Durchbruch führen wird, ist das eindeutig eine Beförderung.“ „Wir sprechen hier nicht von Flugzeugen als Superflugzeugen oder von Linealen als Supermaßnahmen“, fügte Bender hinzu. „Das scheint nur im Bereich der künstlichen Intelligenz aufzutreten.“

Wenn von künstlicher allgemeiner Intelligenz die Rede ist, taucht häufig der Gedanke einer „superintelligenten“ KI auf. Vielen Führungskräften fällt es schwer, genau zu definieren, was künstliche allgemeine Intelligenz (AGI) ist. Im Grunde handelt es sich dabei jedoch um die fortschrittlichste Form der künstlichen Intelligenz, die potenziell in der Lage ist, Entscheidungen zu treffen und komplexe Aufgaben zu bewältigen. Es gibt noch keine Anzeichen dafür, dass wir uns einer Zukunft mit AGI auch nur annähernd nähern, aber es ist ein beliebtes Schlagwort.

Viele dieser futuristischen Aussagen von KI-Führungskräften bedienen sich Tropen aus der Science-Fiction. Sowohl die Befürworter als auch die Pessimisten – so beschreiben Binder und Hannah KI-Enthusiasten und diejenigen, die sich über mögliche Schäden Sorgen machen – stützen sich auf Science-Fiction-Szenarien. Die Befürworter stellen sich eine zukünftige Gesellschaft vor, die von künstlicher Intelligenz angetrieben wird. Pessimisten beklagen eine Zukunft, in der KI-Roboter die Weltherrschaft übernehmen und die Menschheit auslöschen.

Den Autoren zufolge besteht die Gemeinsamkeit in der tief verwurzelten Überzeugung, dass KI intelligenter als Menschen und unvermeidlich sei. „Im Diskurs ist häufig die Vorstellung zu hören, dass die Zukunft feststeht und es nur darauf ankommt, wie schnell wir dorthin gelangen“, sagte Bender. „Dann gibt es die Behauptung, diese spezielle Technologie sei ein Schritt in diese Richtung, und das ist alles nur Marketing. Es ist hilfreich, darüber hinausblicken zu können.“

Einer der Gründe für die große Beliebtheit von KI liegt darin, dass ein funktionsfähiger, autonomer KI-Assistent bedeutet, dass KI-Unternehmen ihren Investoren ihre Versprechen weltverändernder Innovationen einlösen können. Die Planung für diese Zukunft – ob utopisch oder dystopisch – lässt Investoren vorausschauen, während Unternehmen Milliarden von Dollar verbrennen und zugeben, dass sie ihre Ziele hinsichtlich der Kohlendioxidemissionen verfehlen werden. Ob gut oder schlecht, das Leben ist keine Science-Fiction. Wenn jemand behauptet, sein KI-Produkt sei direkt aus einem Film entnommen, sollten Sie ihm mit Skepsis begegnen.

Informieren Sie sich über die Eingaben der KI und wie Sie ihre Ausgaben auswerten.

Eine der einfachsten Möglichkeiten, KI-Marketingbetrug zu erkennen, besteht darin, zu prüfen, ob das Unternehmen seine Funktionsweise offenlegt. Viele KI-Unternehmen geben die Inhalte, die zum Trainieren ihrer Modelle verwendet werden, nicht bekannt. Sie geben jedoch normalerweise bekannt, was das Unternehmen mit Ihren Daten macht, und prahlen manchmal damit, dass seine Modelle die Konkurrenz übertreffen. Hier sollten Sie mit Ihrer Recherche beginnen, normalerweise in den Datenschutzrichtlinien.

Eine der größten Beschwerden und Sorgen der Entwickler betrifft die Art und Weise, wie KI-Modelle trainiert werden. Es gibt zahlreiche Klagen im Zusammenhang mit angeblichen Urheberrechtsverletzungen und viele Bedenken hinsichtlich der Voreingenommenheit bei KI-gestützten Chatbots und ihres Schadenspotenzials. „Wenn Sie ein System schaffen möchten, das die Dinge voranbringt, anstatt die Ungerechtigkeiten der Vergangenheit zu reproduzieren, müssen Sie damit beginnen, Ihre Daten zu organisieren“, sagt Bender. Stattdessen übernehmen KI-Unternehmen „alles, was nicht im Internet installiert war“, sagt Hannah.

Wenn Sie zum ersten Mal von einem KI-Produkt hören, sollten Sie besonders auf Statistiken achten, die dessen Wirksamkeit hervorheben. Wie viele andere Forscher weisen Bender und Hannah darauf hin, dass jedes Ergebnis ohne Quellenangabe ein Warnsignal ist. „Wenn Ihnen jemand etwas verkauft, ohne Ihnen mitzuteilen, wie es bewertet wird, stehen Sie auf unsicherem Boden“, sagt Bender.

Es kann frustrierend und enttäuschend sein, wenn KI-Unternehmen keine konkreten Informationen zur Funktionsweise und Entwicklung ihrer KI-Produkte preisgeben. Das Erkennen dieser Lücken in ihren Verkaufsargumenten kann jedoch helfen, den Lärm zu durchdringen, auch wenn es besser wäre, die Informationen zu haben. Weitere Informationen finden Sie unter ChatGPT-Glossar Unser volles und wie man es ausschaltet Apple Intelligence.

Kommentarfunktion ist geschlossen.