Eine Gruppe bekannter KI-Ethiker hat einen Kontrapunkt zu einem umstrittenen Brief geschrieben, der diese Woche veröffentlicht wurde und eine sechsmonatige „Pause“ bei der KI-Entwicklung fordert, und sie dafür kritisiert, dass sie sich auf hypothetische zukünftige Bedrohungen konzentriert, wenn tatsächlicher Schaden dem Missbrauch zugeschrieben werden kann Technologie heute. .
Tausende von Menschen, darunter bekannte Namen wie Steve Wozniak und Elon Musk, haben Anfang dieser Woche den offenen Brief des Future of Life Institute unterzeichnet, in dem vorgeschlagen wird, dass die Entwicklung von Modellen der künstlichen Intelligenz wie GPT-4 auf Eis gelegt werden sollte, um einen „Verlust“ zu vermeiden. der Kontrolle über unsere Zivilisation, neben anderen Bedrohungen.
Timnit Gebru, Emily M. Bender, Angelina McMillan-Major und Margaret Mitchell sind allesamt prominente Persönlichkeiten in den Bereichen KI und Ethik, von denen bekannt ist, dass sie (zusätzlich zu ihrer Arbeit) von Google wegen einer KI-kritischen Zeitung gefeuert wurden Fähigkeiten. Sie arbeiten derzeit am DAIR-Institut zusammen, einer neuen Forschungseinrichtung, die darauf abzielt, Schäden im Zusammenhang mit künstlicher Intelligenz zu untersuchen, zu erkennen und zu verhindern.
Sie fanden sich aber nicht auf der Unterzeichnerliste und haben nun eine Rüge veröffentlicht, in der sie argumentieren, der Brief gehe nicht auf aktuelle Probleme der Technik ein.
Unter Berufung auf die Ausbeutung von Arbeitern, Datendiebstahl, synthetische Medien, die bestehende Machtstrukturen untermauern, und die zunehmende Konzentration dieser Machtstrukturen in weniger Händen, schrieben sie.
Es ist ziemlich unaufrichtig, sich über eine Terminator- oder Matrix-ähnliche Roboter-Apokalypse Sorgen zu machen, wenn wir gleichzeitig Berichte über Unternehmen wie Clearview AI haben, die von der Polizei benutzt werden, um im Wesentlichen einen unschuldigen Mann zu beschuldigen. Sie brauchen keinen T-1000, wenn Sie Ringkameras an jeder Haustür haben, die über Online-Stempelbestellanlagen zugänglich sind.
Während die DAIR-Mitarbeiter einigen Zielen der Mission zustimmen, wie z. B. der Identifizierung synthetischer Medien, betonen sie, dass bei den heutigen Problemen jetzt mit den uns zur Verfügung stehenden Abhilfemaßnahmen gehandelt werden muss:
Was wir brauchen, ist eine Regulierung, die Transparenz erzwingt. Es muss nicht immer offensichtlich sein, wenn wir auf synthetische Medien stoßen, aber Organisationen, die diese Systeme bauen, sollten auch verpflichtet werden, Trainingsdaten zu dokumentieren und offenzulegen und Architekturen zu modellieren. Die Verantwortung für die Erstellung von Tools, die sicher zu verwenden sind, sollte bei den Unternehmen liegen, die generative Systeme erstellen und einsetzen, was bedeutet, dass die Hersteller dieser Systeme für die Ergebnisse verantwortlich sein sollten, die ihre Produkte produzieren.
Der aktuelle Wettlauf zu immer größeren „KI-Experimenten“ ist kein festgelegter Kurs, bei dem unsere einzige Wahl darin besteht, wie schnell wir laufen, sondern eine Reihe von Entscheidungen, die von einem Profitmotiv getrieben werden. Unternehmenshandlungen und -entscheidungen müssen von Vorschriften geprägt sein, die die Rechte und Interessen der Menschen schützen.
Es ist in der Tat Zeit zum Handeln, aber unser Fokus sollte nicht auf imaginären „digitalen starken Köpfen“ liegen. Stattdessen sollten wir uns auf die sehr realen und sehr gegenwärtigen ausbeuterischen Praktiken der Unternehmen konzentrieren, die sie angeblich aufbauen, die die Macht schnell zentralisieren und die soziale Ungleichheit verstärken.
Übrigens spiegelt diese Botschaft ein Gefühl wider, das ich von Jessica Matthews, der Gründerin von Uncharted Power, auf der gestrigen AfroTech-Veranstaltung in Seattle gehört habe: “Du solltest keine Angst vor KI haben. Du solltest Angst vor den Menschen haben, die sie bauen.” (Ihre Lösung: Seien Sie die Menschen, die es bauen.)
Obwohl es höchst unwahrscheinlich ist, dass ein großes Unternehmen zustimmen würde, seine Forschungsbemühungen gemäß dem offenen Brief einzustellen, ist es aufgrund des Engagements, das es erhalten hat, klar, dass die Risiken – sowohl reale als auch hypothetische – der KI in vielen Sektoren von großer Bedeutung sind der Gesellschaft. Aber wenn sie es nicht tun, muss es vielleicht jemand für sie tun.