Der kometenhafte Aufstieg der generativen KI hat dank benutzerzentrierter Produkte wie ChatGPT, Dall-E und Lensa von OpenAI für eine coole Technologiesensation gesorgt. Doch der Boom der benutzerfreundlichen KI kommt zu einer Zeit, in der Benutzer scheinbar ignoriert werden oder über die Datenschutzrisiken, die diese Projekte mit sich bringen, im Unklaren gelassen werden.
Inmitten des ganzen Hypes beginnen internationale Regierungen und große Technologiekonzerne, Alarm zu schlagen. Unter Berufung auf Datenschutz- und Sicherheitsbedenken hat Italien gerade ein vorübergehendes Verbot von ChatGPT verhängt, was zu einer ähnlichen Blockierung in Deutschland führen könnte. Im privaten Sektor haben Hunderte von KI-Forschern und Technologieführern, darunter Elon Musk und Steve Wozniak, einen offenen Brief unterzeichnet, in dem sie einen sechsmonatigen Stopp der KI-Entwicklung außerhalb von GPT-4 fordern.
Der relativ schnelle Versuch, die unverantwortliche Entwicklung der KI einzudämmen, ist lobenswert, aber die breitere Bedrohungslandschaft, die KI für den Datenschutz und die Sicherheit darstellt, geht über ein einzelnes Modell oder einen einzelnen Entwickler hinaus. Obwohl sich niemand darauf einlassen möchte, die Fähigkeiten des Paradigmenwechsels der KI zur Schau zu stellen, ist es unerlässlich, seine Mängel jetzt direkt anzugehen, um zu verhindern, dass die Folgen katastrophal werden.
KI-Datenschutzsturm
Während man leicht argumentieren könnte, dass OpenAI und andere KI-Projekte, die von großen Technologien vorangetrieben werden, allein für das KI-Datenschutzproblem verantwortlich sind, wurde das Thema schon lange angesprochen, bevor es in den Mainstream gelangte. Die Skandale rund um den Datenschutz in der KI ereigneten sich vor diesem Vorgehen gegen ChatGPT – sie ereigneten sich größtenteils unter Ausschluss der Öffentlichkeit.
Erst letztes Jahr wurde Clearview AI, einem KI-basierten Gesichtserkennungsunternehmen, das von Tausenden von Regierungen und Strafverfolgungsbehörden mit begrenztem öffentlichen Wissen genutzt wird, der Verkauf von Gesichtserkennungstechnologie an private Unternehmen in den Vereinigten Staaten verboten. Clearview verhängte in Großbritannien außerdem eine Geldstrafe von 9,4 Millionen US-Dollar wegen seiner illegalen Gesichtserkennungsdatenbank. Wer sagt, dass verbraucherorientierte visuelle KI-Projekte wie Midjourney oder andere nicht für ähnliche Zwecke genutzt werden können?
Clearview AI, das Unternehmen für Gesichtserkennungstechnologie, hat bestätigt, dass mein Gesicht in seiner Datenbank enthalten ist. Ich habe ihnen in der Kopfzeile ein Foto geschickt und sie haben mit diesen Fotos geantwortet, zusammen mit Links, woher sie die Fotos haben, einschließlich einer Website namens „InstaStalker“. pic.twitter.com/ff5ajAFlg0
– Thomas Daigle (@thomasdaigle) 9. Juni 2020
Das Problem ist, dass sie es bereits waren. Eine Reihe jüngster Skandale im Zusammenhang mit Pornografie und gefälschten Nachrichten, die durch KI-Produkte für Verbraucher erstellt wurden, haben die Dringlichkeit erhöht, Benutzer vor dem schändlichen Einsatz von KI zu schützen. Es erfordert ein hypothetisches Konzept der digitalen Mimikry und macht sie zu einer echten Bedrohung für normale Menschen und einflussreiche Persönlichkeiten des öffentlichen Lebens.
Verwandt: Elizabeth Warren möchte, dass die Polizei im Jahr 2024 vor Ihrer Tür steht
Generative KI-Modelle stützen sich in erster Linie auf neue und vorhandene Daten, um ihre Fähigkeiten und Benutzerfreundlichkeit aufzubauen und zu verbessern. Das ist einer der Gründe, warum ChatGPT so beeindruckend ist. Ein Modell, das auf die Eingabe neuer Daten angewiesen ist, benötigt jedoch einen Ort, an dem diese Daten abgerufen werden können, und ein Teil davon wird unweigerlich auch die personenbezogenen Daten der Personen umfassen, die es verwenden. Diese Datenmengen können leicht missbraucht werden, wenn sie von zentralen Stellen, Regierungen oder Hackern erfasst werden.
Was können Unternehmen und Nutzer, die mit diesen Produkten arbeiten, angesichts des begrenzten Umfangs der Massenregulierung und der widersprüchlichen Ansichten über die Entwicklung von KI jetzt tun?
Was Unternehmen und Anwender tun können
Die Tatsache, dass Regierungen und andere Entwickler jetzt ihre Bedenken hinsichtlich der KI äußern, deutet tatsächlich auf einen Fortschritt gegenüber dem rasanten Tempo der Web2-Anwendungsregulierung und -Verschlüsselung hin. Aber Flaggen zu hissen ist nicht dasselbe wie Verantwortungsbewusstsein. Daher ist es wichtig, ein Gefühl der Dringlichkeit aufrechtzuerhalten, ohne Angst davor zu warnen, um wirksame Vorschriften zu schaffen, bevor es zu spät ist.
Das Verbot von ChatGPT in Italien ist nicht der erste Schlag, den Regierungen gegen KI verüben. Sowohl die Europäische Union als auch Brasilien erlassen Gesetze, um bestimmte Arten der Nutzung und Entwicklung künstlicher Intelligenz zu bestrafen. Ebenso führte die Fähigkeit der generativen KI, Datenschutzverletzungen durchzuführen, zu frühen gesetzgeberischen Maßnahmen der kanadischen Regierung.
Das Problem der KI-Datenverletzung ist so ernst, dass OpenAI eingreifen musste. Wenn Sie ChatGPT vor ein paar Wochen geöffnet haben, ist Ihnen möglicherweise aufgefallen, dass die Chat-Verlaufsfunktion deaktiviert war. OpenAI hat die Funktion aufgrund eines schwerwiegenden Datenschutzproblems vorübergehend abgeschaltet, bei dem Ansprüche von Fremden offengelegt wurden und Zahlungsinformationen offengelegt wurden.
Verwandt: Seien Sie nicht überrascht, wenn KI versucht, Ihre Kryptowährung zu sabotieren
Obwohl OpenAI dieses Feuer effektiv gelöscht hat, kann es schwierig sein, darauf zu vertrauen, dass softwaregeführte Web2-Giganten ihre eigenen KI-Ethikteams kürzen, um proaktiv das Richtige zu tun.
Auf Branchenebene wird eine KI-Entwicklungsstrategie, die mehr Wert auf einheitliches maschinelles Lernen legt, auch den Datenschutz fördern. Federated Learning ist ein kollaborativer KI-Ansatz, der KI-Modelle trainiert, ohne dass jemand Zugriff auf die Daten hat, und stattdessen mehrere unabhängige Quellen verwendet, um den Algorithmus mithilfe ihrer eigenen Datensätze zu trainieren.
Auf der Benutzerseite ist es unnötig und wahrscheinlich bald unmöglich, ein KI-Luddit zu werden und die Verwendung eines dieser Programme vollständig aufzugeben. Es gibt jedoch Möglichkeiten, die Art der generativen KI, auf die Sie im Alltag zugreifen, intelligenter zu gestalten. Für Unternehmen und Kleinunternehmen, die KI-Produkte in ihre Abläufe integrieren, ist es noch wichtiger, sorgfältig mit den Daten umzugehen, die in den Algorithmus einfließen.
Es heißt immer, dass bei der Nutzung eines kostenlosen Produkts Ihre persönlichen Daten gespeichert werden Er ist Das Produkt ist weiterhin für AI gültig. Wenn Sie dies im Hinterkopf behalten, werden Sie möglicherweise überdenken, mit welchen KI-Projekten Sie Ihre Zeit verbringen und wofür Sie sie tatsächlich einsetzen. Wenn Sie an jedem einzelnen Social-Media-Trend beteiligt waren, bei dem es darum ging, Fotos von sich selbst an eine zwielichtige, KI-gestützte Website zu senden, sollten Sie darüber nachdenken, diesen Trend zu überspringen.
ChatGPT erreichte nur zwei Monate nach seiner Einführung 100 Millionen Nutzer, eine erstaunliche Zahl, die deutlich zeigt, dass unsere digitale Zukunft KI nutzen wird. Doch trotz dieser Zahlen ist KI noch nicht allgegenwärtig. Regulierungsbehörden und Unternehmen sollten dies zu ihrem Vorteil nutzen, um proaktiv Rahmenbedingungen für eine verantwortungsvolle und sichere KI-Entwicklung zu schaffen, anstatt Projekten hinterherzujagen, sobald sie zu groß werden, um kontrolliert zu werden. Derzeit ist die synthetische Entwicklung der KI nicht im Gleichgewicht zwischen Schutz und Fortschritt, aber es bleibt noch Zeit, den richtigen Weg zu finden, um sicherzustellen, dass Benutzerinformationen und Datenschutz immer einen Schritt voraus sind.
Ryan Patterson Er ist der Unplugged Head. Bevor er die Leitung von Unplugged übernahm, war er von 2008 bis 2020 Gründer, Präsident und CEO von IST Research. Mit dem Verkauf des Unternehmens im September 2020 verließ er IST Research. Er absolvierte zwei Touren bei der Defense Advanced Research Agency und 12 Jahre im United States Marine Corps.
Eric Prince Unternehmer, Philanthrop und erfahrener US Navy SEAL mit Geschäftsinteressen in Europa, Afrika, dem Nahen Osten und Nordamerika. Er war Gründer und Vorsitzender der Frontier Resource Group und Gründer von Blackwater USA – einem globalen Anbieter von Sicherheits-, Schulungs- und Logistiklösungen für die US-Regierung und andere Unternehmen – bevor er das Unternehmen im Jahr 2010 verkaufte.
Dieser Artikel dient allgemeinen Informationszwecken und ist nicht als Rechts- oder Anlageberatung gedacht und sollte auch nicht als solche betrachtet werden. Die hier geäußerten Ansichten, Ideen und Meinungen sind ausschließlich die des Autors und spiegeln nicht unbedingt die Ansichten und Meinungen von Cointelegraph wider.