OpenAI stellt ein neues Team zusammen, um die Kontrolle über „superintelligente“ KI zu übernehmen

OpenAI stellt ein neues Team unter der Leitung von Ilya Sutskever, seinem Chefwissenschaftler und einem der Gründer des Unternehmens, zusammen, um Wege zur Steuerung und Kontrolle „superintelligenter“ KI-Systeme zu entwickeln.

In einem heute veröffentlichten Blogbeitrag sagen Sutskever und Jan Leike, der Leiter des Matchmaking-Teams bei OpenAI, voraus, dass künstliche Intelligenz, die über die menschliche Intelligenz hinausgeht, innerhalb eines Jahrzehnts aufkommen könnte. Sutskever und Leike sagen, dass diese KI – vorausgesetzt, sie kommt irgendwann an – nicht unbedingt wohlwollend sein wird, was die Erforschung von Möglichkeiten erfordert, sie zu kontrollieren und einzuschränken.

„Derzeit haben wir keine Lösung, um eine superintelligente KI zu steuern oder zu kontrollieren und zu verhindern, dass sie böse wird“, schrieben sie. Unsere aktuellen Technologien zur Anpassung von KI, wie z. B. verstärkendes Lernen aus menschlichem Feedback, hängen davon ab, dass Menschen in der Lage sind, KI zu überwachen. Aber Menschen werden nicht in der Lage sein, KI-Systeme, die intelligenter sind als wir, zuverlässig zu überwachen.“

Um im Bereich der „superintelligenten Ausrichtung“ voranzukommen, stellt OpenAI ein neues Superalignment-Team unter der Leitung von Sutskever und Leike zusammen, das Zugriff auf 20 % der Konten haben wird, die das Unternehmen bisher erworben hat. Zusammen mit Wissenschaftlern und Ingenieuren der ehemaligen Alignment-Abteilung von OpenAI sowie Forschern anderer Institutionen im gesamten Unternehmen wird das Team in den nächsten vier Jahren die Lösung zentraler technischer Herausforderungen für die Steuerung von KI anstreben.

Wie? Durch den Aufbau dessen, was Sutskever und Leike als „automatisierten Ausrichtungsfinder auf menschlicher Ebene“ beschreiben. Das übergeordnete Ziel besteht darin, KI-Systeme mithilfe von menschlichem Feedback zu trainieren, KI zu trainieren, um bei der Bewertung anderer KI-Systeme zu helfen, und schließlich eine KI zu entwickeln, die Matchmaking-Forschung durchführen kann. (Hier bezieht sich „Fitnessforschung“ darauf, sicherzustellen, dass KI-Systeme die gewünschten Ergebnisse erzielen.)

See also  SHIB Team Announces Launch Of Shibarium Mainnet

Die Prämisse von OpenAI ist, dass KI Forschungsfortschritte schneller und besser machen kann als Menschen.

Likee und seine Kollegen John Schulman und Jeffrey Wu erklärten dies in einem früheren Blogbeitrag. „Sie werden mit Menschen zusammenarbeiten, um sicherzustellen, dass ihre Nachfolger den Menschen besser entsprechen. Humanforscher werden ihre Bemühungen immer mehr auf die Überprüfung der von KI-Systemen durchgeführten Matchmaking-Forschung konzentrieren, anstatt diese Forschung selbst durchzuführen.“

Natürlich ist keine Methode narrensicher – und Leike, Schulman und Wu erkennen in ihren Veröffentlichungen die vielen Einschränkungen von OpenAI an. Der Einsatz von KI bei der Bewertung kann zu Inkonsistenzen, Voreingenommenheiten oder Schwächen dieser KI führen. Und es könnte sich herausstellen, dass die schwierigsten Teile des Ausrichtungsproblems möglicherweise nichts mit der Geometrie zu tun haben.

Aber Sutskever und Leike denken, dass es einen Versuch wert ist.

„Die Ausrichtung der Superintelligenz ist im Grunde ein Problem des maschinellen Lernens, und wir glauben, dass großartige Experten für maschinelles Lernen – auch wenn sie noch nicht an der Ausrichtung arbeiten – wichtig sein werden, um dieses Problem zu lösen“, schrieben sie. „Wir planen, die Früchte dieser Bemühungen weithin zu teilen und sehen es als einen wichtigen Teil unserer Arbeit an, zur Kompatibilität und Integrität von Nicht-OpenAI-Modellen beizutragen.“

error: Content is protected !!