Temple Grandin: KI und ChatGPT sind großartig, aber wir brauchen immer noch Experten.

Nachricht

HeimHeim / Nachricht / Temple Grandin: KI und ChatGPT sind großartig, aber wir brauchen immer noch Experten.

May 03, 2023

Temple Grandin: KI und ChatGPT sind großartig, aber wir brauchen immer noch Experten.

Ich wurde erstmals 1968 auf KI aufmerksam, als ich einen Film sah, der mich berührte

Ich wurde erstmals 1968 auf KI aufmerksam, als ich einen Film sah, der mich tief berührte: „2001: Odyssee im Weltraum“ des Regisseurs Stanley Kubrick. Ich war 21 Jahre alt. Ich liebte Science-Fiction-Filme, aber dieser hatte eine besondere Bedeutung.

Als Mensch mit Autismus bin ich eher rational und faktenbasiert als emotional und gefühlsbasiert, und meine Sprache wurde als monoton oder unmoduliert beschrieben. In der High School nannten mich einige der Kinder „Roboter“ und „Tonbandgerät“. Das ist einer der Gründe, warum ich mich auf HAL beziehe, den empfindungsfähigen Computer, der mit seiner ruhigen Stimme und seiner Hyperlogik den Astronauten bei ihrer Mission hilft (bis er es nicht mehr tut). Aber ich habe der KI erst 1997 so viel Aufmerksamkeit geschenkt, als der IBM-Computer Deep Blue den Schachweltmeister Garry Kasparov besiegte. Das war ein Game Changer. Dann, im Jahr 2003, war ich überwältigt, als zwei Marsrover losgeschickt wurden, um ihre Tage damit zu verbringen, alleine und ohne menschliche Kontrolle über die Oberfläche des Planeten zu navigieren.

Seitdem hat KI Einzug in unser Alltagsleben gehalten und treibt Siri, selbstfahrende Autos, Pop-up-Anzeigen in sozialen Medien, Algorithmen für persönliche Investitionen und vieles mehr an. Zuletzt führte das Technologieunternehmen OpenAI ChatGPT ein und ermöglichte damit kostenlosen Zugang zu der bemerkenswerten Technologie. ChatGPT hat die Anwaltsprüfung bereits bestanden.

Ich wollte wissen, welches Fachwissen ChatGPT in meiner Branche vorweisen kann. Ich habe es gebeten, einen kurzen Absatz über die Verhaltensgrundsätze beim Umgang mit Rindern zu schreiben. Es hat einen meiner Aufsätze treffend zusammengefasst und gezeigt, dass mathematische Analysen nur so gut sind wie die Daten, die in sie einfließen. Dann habe ich es gebeten, in Formulierungen, die ich normalerweise nicht verwende, einen kurzen Absatz über gute Methoden im Umgang mit Rindern zu schreiben, damit es nicht nur meine eigene Arbeit nachschlagen kann. Es wurde ein genauer, prägnanter Absatz über die beteiligten Verhaltensprinzipien geschrieben. Für beide Absätze wurden echte und relevante Referenzen bereitgestellt. In einem Fall enthielt es jedoch ein altes Diagramm eines wirklich schlechten Entwurfs einer Anlage – ein Entwurf, von dem ein Neuling in der Branche nicht wissen würde, dass er schwerwiegende Mängel aufweist. Für jeden Bereich, der KI nutzt, werden wir weiterhin Experten brauchen.

Bisher konzentrierten sich die meisten Sorgen über KI auf die Frage, ob Maschinen den Menschen Arbeitsplätze wegnehmen und ob KI die Menschheit überflüssig machen wird. Ich glaube, dass diese Sorge fehl am Platz ist. Jede technologische Revolution vernichtet einige Arbeitsplätze und schafft andere. Die wirklichen Gefahren liegen meiner Meinung nach woanders.

Da ich nicht nur Autist, sondern auch ein sehr visueller Denker bin, erschließt sich mir die Bedeutung zuerst in Bildern. Mein Verstand ist wie ein Simulator, der das Äquivalent von Videos abspielt und zeigt, wie Dinge passieren, insbesondere, wie sie schief gehen können. Es ist das Gegenteil der hochabstrakten Argumentation, die zu den radikalen Durchbrüchen in der KI führte. Aber es sind visuelle Denker wie ich, die speziell dafür gerüstet sind, sicherzustellen, dass dieser Fortschritt keinen allzu hohen Tribut fordert.

Für die meisten Menschen ist KI eine Abstraktion, so etwas wie Magie. Das ist gefährlich. Wir täten besser daran, darüber nachzudenken, wie wir es mit physischer Infrastruktur wie Straßen oder Verarbeitungsanlagen tun, mit ihren Schwachstellen und realen Konsequenzen. KI hilft unserer Welt, zu funktionieren – aber jedes große und leistungsstarke Energieversorgungsunternehmen kann schiefgehen. Während meiner 50-jährigen Tätigkeit in der Industrie habe ich die Kettenreaktionen, die durch menschliches Versagen ausgelöst werden, und die Verletzlichkeit unserer wesentlichen Infrastrukturen wie Wasser- und Stromversorgungssysteme aus erster Hand miterlebt. Diese Systeme sind nun noch stärker gefährdet, wenn beispielsweise Hacker die Kontrolle über die Computer übernehmen, die die Geräte steuern – eine immer realere Gefahr, da KI-Programme Computercode schreiben können. Der beste Weg, unsere Wasser- und Stromnetze zu schützen, besteht darin, altmodische elektromechanische Steuerungen zu verwenden, die anfällige Geräte abschalten, wenn sie zu heiß werden, sich zu schnell drehen oder übermäßigen Druck aufbauen.

Heather Tal Murphy

Ich habe die Zukunft gesehen, die Hollywood-Schauspielern Angst macht

Mehr lesen

Es hat mir Spaß gemacht, mit ChatGPT herumzuspielen. Ich fragte ihn nicht nur nach meinem Fachgebiet, sondern erkundigte mich auch nach seinen Gedanken zu lila fliegenden Zebras. (Es wurde festgestellt, dass solche Kreaturen fiktiv sind und sich von Wolken und Regenbögen ernähren.) Aber ich teile auch die Besorgnis, die Sam Altman, der Chef von ChatGPTs Erfinder OpenAI, zum Ausdruck brachte, als er kürzlich dem Senat sagte: „Wenn diese Technologie schief geht, kann sie das.“ ganz schiefgehen.“ Altman zeigte den Gesetzgebern, wie ChatGPT eine völlig überzeugende Senatorenrede zusammenstellen könnte, und sagte ihnen, dass die KI daran gehindert werden sollte, sich selbst zu reproduzieren oder in die Wildnis zu entkommen. Ein KI-Programm, das einen Klon von sich selbst erstellt, könnte sich in ein Rechenzentrum eindringen und unvorstellbaren Schaden anrichten, wenn menschliche Bediener nicht wachsam genug sind, um einzugreifen. Wenn wir von der KI profitieren wollen, insbesondere jetzt, wo die Werkzeuge, um sie auf einzigartige Weise zu nutzen, allgemein verfügbar sind, müssen wir sie nicht nur als wichtige Infrastruktur schützen, sondern wir müssen auch alltägliche Bürger in grundlegender KI-Selbstverteidigung schulen.

Jeder, der in einem Bereich tätig ist, in dem man sich auf wissenschaftliche Fakten verlassen muss, muss wissen, wie man wissenschaftliche Datenbanken durchsucht, um Behauptungen selbst zu überprüfen. Bei nichtwissenschaftlichen, aber kontroversen Themen müssen die Menschen lernen, Behauptungen anhand mehrerer glaubwürdiger Informationsquellen zu überprüfen. Es gibt gute Software zur Erkennung gefälschter Fotos, die Fake News drastisch verstärken kann. Wir müssen den Menschen beibringen, wie man es nutzt. Und Menschen mit der Fähigkeit zur visuellen Problemlösung, die unvorhergesehene Konsequenzen vor ihrem geistigen Auge simulieren und sich in Echtzeit Lösungen vorstellen können, müssen sinnvoll eingesetzt werden. Gefahr ist keine Abstraktion. Wir brauchen Menschen, die dort leben, wo ich lebe: in der Welt der praktischen Dinge. Ob es um Wasserpumpen oder Stromnetze in der Außenwelt oder um grundlegende Sanitär- und Elektroprobleme in unseren Häusern geht, die Menschen müssen wissen, wie man Dinge repariert. Ich mache mir Sorgen, dass einige Kinder jetzt in der Mittelschule programmieren können, aber noch nie einen Hammer in die Hand genommen oder einen Faden in eine Nadel eingefädelt haben. Wenn sie zu politischen Entscheidungsträgern werden, wird es für sie sehr schwierig sein, wirksame Richtlinien zu Themen wie der Infrastruktur zu treffen, die auf praktischem Wissen und Fähigkeiten beruhen.

Können wir alles, was wir brauchen, um uns zu schützen, schneller lernen, als die KI Fortschritte macht? Die Folgen der Technologie sind verheerend. Forscher entwickeln Methoden, um mithilfe von KI molekularbiologische Prozesse zu verstehen und zu manipulieren. Was wäre, wenn jemand einen neuen gefährlichen Virus erschaffen würde? Laut der Berichterstattung über Altmans Äußerungen besteht die größte Gefahr, die KI auslösen könnte, darin, „Menschen so zu manipulieren, dass sie die Kontrolle abgeben“. Was wäre, wenn es jemanden dazu verleiten würde, mehrere Raketen mit Atomsprengköpfen abzufeuern, indem es Radarmeldungen über eintreffende Waffen vortäuschte? Werden wir über Software verfügen, die die Manipulation erkennen kann, oder über Satellitentechnologie, die die Hitze erkennen kann, die die Radarberichte beweisen oder widerlegen würde? Werden wir über Mitarbeiter verfügen, die für den Umgang mit dieser Technologie geschult sind, und über das erforderliche Kommunikationsnetzwerk, um sicherzustellen, dass niemand einen Schritt verpasst?

Diese Fragen sind äußerst komplex – aber wenn wir konkrete Lösungen in Betracht ziehen, haben wir mehr Kontrolle, als wir denken. Vielleicht müssen wir zum altmodischen „roten Telefon“-Festnetzanschluss zurückkehren, über den früher die Präsidenten der Atommächte verbunden waren. Ein rotes Telefon, das durch nicht computerisierte elektromechanische Geräte geleitet wird. Als ich 2001: Odyssee im Weltraum sah, weinte ich, als David HAL ausschalten musste, nachdem es die anderen Astronauten getötet hatte. HAL hatte einen Ausschalter. Das muss auch die KI tun

Future Tense ist eine Partnerschaft von Slate, New America und der Arizona State University, die neue Technologien, öffentliche Ordnung und Gesellschaft untersucht.