Die Einführung der vielgepriesenen generativen KI hat eine bekannte Debatte über Vertrauen und Sicherheit neu entfacht: Kann man CTOs vertrauen, dass sie das Wohl der Gesellschaft im Mittelpunkt haben?
Da ihre Trainingsdaten von Menschen generiert werden, ist KI von Natur aus anfällig für Voreingenommenheit und unterliegt daher unseren unvollkommenen, emotional getriebenen Sichtweisen auf die Welt. Wir kennen die Risiken nur allzu gut, von der Verstärkung von Diskriminierung und Rassenungleichheit bis hin zur Verstärkung der Polarisierung.
OpenAI-CEO Sam Altman hat Bitte um „Geduld und Wohlwollen“ Weil sie daran arbeiten, „es richtig zu machen“.
Jahrzehntelang vertrauten wir geduldig auf technische Führungskräfte – auf eigene Gefahr: Sie haben es geschaffen, also haben wir ihnen geglaubt, als sie sagten, sie könnten es reparieren. Das Vertrauen in Technologieunternehmen nimmt weiter ab, und laut dem Edelman Trust Barometer 2023 befürchten 65 % weltweit, dass die Technologie es unmöglich machen wird, zu wissen, ob das, was die Menschen sehen oder hören, echt ist.
Es ist an der Zeit, dass Silicon Valley einen anderen Ansatz verfolgt, um unser Vertrauen zu gewinnen – einen, der sich im Rechtssystem des Staates als wirksam erwiesen hat.
Ein prozessualer Gerechtigkeitsansatz für Vertrauen und Legalität
Verfahrensgerechtigkeit basiert auf der Sozialpsychologie und basiert auf Untersuchungen, die zeigen, dass Menschen Institutionen und Akteure für vertrauenswürdiger und legitimer halten, wenn ihnen zugehört wird und sie eine unparteiische, unvoreingenommene und transparente Entscheidungsfindung erfahren.
Vier Hauptkomponenten der Verfahrensgerechtigkeit sind:
- Neutralität: Entscheidungen sind unvoreingenommen und basieren auf transparenten Überlegungen.
- Respekt: Behandelt jeden mit Respekt und Würde.
- Stimme: Jeder hat die Möglichkeit, seine Seite der Geschichte zu erzählen.
- Vertrauenswürdigkeit: Entscheidungsträger kommunizieren vertrauenswürdige Motive über die von ihren Entscheidungen Betroffenen.
Mit diesem Rahmen hat die Polizei das Vertrauen und die Zusammenarbeit in ihren Gemeinden verbessert und einige Social-Media-Unternehmen beginnen, diese Ideen zur Gestaltung ihres Governance- und Moderationsansatzes zu nutzen.
Hier sind einige Ideen, wie KI-Unternehmen diesen Rahmen anpassen können, um Vertrauen und Legitimität aufzubauen.
Stellen Sie das richtige Team zusammen, um die richtigen Fragen zu beantworten
Wie UCLA-Professorin Safia Noble argumentiert, können die Fragen im Zusammenhang mit algorithmischer Voreingenommenheit nicht von Ingenieuren allein gelöst werden, da es sich um systemische soziale Probleme handelt, die menschliche Perspektiven – außerhalb eines Unternehmens – erfordern, um gesellschaftliche Konversation, Konsens und letztendlich Organisation sicherzustellen – sowohl auf staatlicher als auch auf staatlicher Ebene staatlich.
In „System Fault: Where Big Technology Wrong and How We Can Reboot“ diskutieren drei Stanford-Professoren kritisch die Mängel der Informatikausbildung und der Ingenieurskultur aufgrund ihrer Verbesserungsbesessenheit, die oft die Grundwerte einer demokratischen Gesellschaft in Frage stellt.
In einem Blogbeitrag sagt Open AI, dass es den Input der Community schätzt: „Weil die Vorteile von AGI so groß sind, halten wir es nicht für möglich oder wünschenswert, dass die Community ihre Entwicklung für immer stoppt; stattdessen die Community und die KI-Entwickler.“ Sollten sie herausfinden, wie man es richtig macht?
Allerdings ist die Rekrutierungsseite für das Unternehmen und seinen Gründer Sam Altmans Tweets Es zeigte sich, dass das Unternehmen eine große Anzahl von Ingenieuren für maschinelles Lernen und Informatiker beschäftigt, weil „ChatGPT eine ehrgeizige Roadmap hat und durch die Technik behindert wird.“
Sind diese Informatiker und Ingenieure in der Lage, Entscheidungen zu treffen, die, wie OpenAI es ausdrückt, „mehr Vorsicht erfordern, als die Gesellschaft normalerweise bei neuen Technologien anwendet“?
Technologieunternehmen sollten multidisziplinäre Teams beschäftigen, denen Sozialwissenschaftler angehören, die die menschlichen und gesellschaftlichen Auswirkungen der Technologie verstehen. Mit vielfältigen Perspektiven auf das Training von KI-Anwendungen und die Umsetzung von Sicherheitsstandards können Unternehmen transparente Gründe für ihre Entscheidungen formulieren. Dies wiederum kann dazu beitragen, dass die Öffentlichkeit Technologie als neutral und vertrauenswürdig wahrnimmt.
Beziehen Sie Außenperspektiven ein
Ein weiterer Bestandteil der Verfahrensgerechtigkeit besteht darin, den Menschen die Möglichkeit zu geben, am Entscheidungsprozess teilzunehmen. In einem kürzlich erschienenen Blogbeitrag darüber, wie OpenAI mit Voreingenommenheit umgeht, sagte das Unternehmen, dass es „externen Input zu unserer Technologie“ einholt und sich dabei auf eine kürzlich durchgeführte Red-Team-Übung bezog, einen Prozess der Risikobewertung mit einem kontradiktorischen Ansatz.
Obwohl rote Bänder ein wichtiger Prozess zur Risikobewertung sind, müssen sie externe Eingaben einbeziehen. Bei der Red-Team-Übung von OpenAI waren 82 von 103 Teilnehmern Angestellte. Von den verbleibenden 23 Teilnehmern waren die meisten Informatikwissenschaftler überwiegend westlicher Universitäten. Um vielfältige Perspektiven zu gewinnen, müssen Unternehmen über ihre Mitarbeiter, Disziplinen und Geografie hinausblicken.
Sie können auch ein direkteres Feedback zu KI-Produkten ermöglichen, indem sie Benutzern mehr Kontrolle über die Leistung der KI geben. Sie könnten auch erwägen, Gelegenheiten für öffentliche Kommentare zu neuen Richtlinien oder Produktänderungen bereitzustellen.
Transparenzgarantie
Unternehmen müssen sicherstellen, dass alle relevanten Regeln und Sicherheitsprozesse transparent sind und vertrauenswürdige Beweggründe für die Entscheidungsfindung kommunizieren. Beispielsweise ist es wichtig, die Öffentlichkeit darüber zu informieren, wie Anwendungen trainiert werden, woher die Daten stammen, welche Rolle Menschen im Trainingsprozess spielen und welche Sicherheitsebenen vorhanden sind, um Missbrauch zu reduzieren.
Forschern die Möglichkeit zu geben, KI-Modelle zu prüfen und zu verstehen, ist der Schlüssel zum Aufbau von Vertrauen.
Altman hat es kürzlich in einem Interview mit ABC News richtig gemacht, als er sagte: „Ich denke, die Gesellschaft hat nur eine begrenzte Zeit, um herauszufinden, wie sie darauf reagieren, wie sie das organisieren und wie sie damit umgehen soll.“
Mit einem Ansatz der Verfahrensgerechtigkeit statt der Verschleierung und des Misstrauens gegenüber Technologievorläufern können Unternehmen, die KI-Plattformen entwickeln, die Gesellschaft in den Prozess einbeziehen und Vertrauen und Legitimität gewinnen – nicht Nachfrage.