
Mit der Einführung der ChatGPT- und Whisper-APIs heute Morgen ändert OpenAI die Bedingungen seiner API-Entwicklerrichtlinie mit dem Ziel, der Kritik von Entwicklern und Benutzern entgegenzuwirken.
Ab heute sagt OpenAI, dass es keine über seine API bereitgestellten Daten für „Serviceverbesserungen“ verwenden wird, einschließlich des Trainings eines KI-Modells, es sei denn, der Kunde oder die Organisation entscheidet sich dafür. Darüber hinaus implementiert das Unternehmen eine 30-tägige Datenaufbewahrungsrichtlinie für API-Benutzer mit strengeren Aufbewahrungsoptionen „abhängig von den Benutzeranforderungen“ und rationalisiert seine Bedingungen und das Dateneigentum, um klarzustellen, dass die Benutzer die Eingaben und Ausgaben der Formulare besitzen.
Greg Brockman, Präsident und CEO von OpenAI, bestätigt, dass einige dieser Änderungen dies nicht sind die Veränderungen Unbedingt – es war schon immer so, dass Benutzer der OpenAI-API die Ein- und Ausgabedaten besitzen, seien es Texte, Bilder oder anderes. Aber aufkommende rechtliche Herausforderungen in Bezug auf generative KI und Kundenfeedback haben zu einer Neufassung der Nutzungsbedingungen geführt, sagt er.
„Einer unserer größten Schwerpunkte war herauszufinden, wie wir wirklich freundlich zu Entwicklern werden können?“ Brockman sagte TechCrunch in einem Videointerview. „Unsere Mission ist es wirklich, eine Plattform aufzubauen, auf der andere Menschen Unternehmen aufbauen können.“
Die Entwickler haben lange mit der (inzwischen eingestellten) Datenverarbeitungsrichtlinie von OpenAI gekämpft, die ihrer Meinung nach ein Datenschutzrisiko darstellt und es dem Unternehmen ermöglicht hat, von ihren Daten zu profitieren. In einem seiner Helpdesk-Artikel rät OpenAI davon ab, vertrauliche Informationen in Chats mit ChatGPT zu teilen, da es „bestimmte Eingabeaufforderungen nicht löschen kann [users’ histories]. “
Indem es Kunden ermöglicht, die Bereitstellung ihrer Daten zu Schulungszwecken zu verweigern, und erweiterte Datenaufbewahrungsoptionen anbietet, versucht OpenAI eindeutig, die Attraktivität seiner Plattform zu erhöhen. Außerdem strebt sie eine großflächige Expansion an.
Zu diesem letzten Punkt sagt OpenAI in einer weiteren Richtlinienänderung, dass es seinen derzeitigen Überprüfungsprozess vor dem Start für Entwickler zugunsten eines weitgehend automatisierten Systems entfernen wird. Per E-Mail sagte ein Unternehmenssprecher, das Unternehmen fühle sich beim Umstieg auf das System wohl, weil „die überwiegende Mehrheit der Apps während des Überprüfungsprozesses genehmigt wurde“ und weil sich die Überwachungsfähigkeiten des Unternehmens seit dieser Zeit im letzten Jahr „dramatisch verbessert“ haben.
„Was sich geändert hat, ist, dass wir von einem modellbasierten Vorwärtsprüfungssystem, bei dem Entwickler in einer Warteschlange auf die Genehmigung ihrer App-Idee im Konzept warten, zu einem Nacherkennungssystem übergegangen sind, bei dem wir problematische Apps identifizieren und untersuchen, indem wir den Datenverkehr überwachen “, sagte der Sprecher. Gehen Sie durch und untersuchen Sie gegebenenfalls.”
Ein automatisiertes System, das die Belastung der OpenAI-Überprüfungsmitarbeiter verringert. Aber es ermöglicht dem Unternehmen auch – zumindest theoretisch –, Entwickler und Anwendungen für seine APIs in größeren Mengen zu genehmigen. OpenAI steht unter zunehmendem Druck, nach einer milliardenschweren Investition von Microsoft Gewinne zu erzielen. Berichten zufolge erwartet das Unternehmen, im Jahr 2023 200 Millionen US-Dollar zu verdienen, was im Vergleich zu den mehr als 1 Milliarde US-Dollar, die bisher für das Startup vorgesehen waren, ein Hungerlohn ist.