Reka kommt aus dem Verborgenen, um benutzerdefinierte KI-Modelle für das Unternehmen zu erstellen

Language Large Models (LLMs) wie GPT-4 von OpenAI sind heutzutage aufgrund ihrer unübertroffenen Fähigkeit zur Analyse und Textgenerierung am beliebtesten. Aber für Unternehmen, die LLMs für bestimmte Aufgaben nutzen möchten – zum Beispiel das Verfassen von Anzeigentexten im markentypischen Stil – kann ihr allgemeiner Charakter zu einer Belastung werden.

Wenn Anweisungen so präzise werden, hat selbst der beste LLM Schwierigkeiten mit der Konsistenz. Die Feinabstimmung oder Eingrenzung des LLM ist eine Lösung. Doch oft sind sie technisch schwierig und kostspielig.

Motiviert, einen einfacheren Weg zu finden, gründete ein Team von Forschern von DeepMind, Google, Baidu und Meta Reka, das heute mit 58 Millionen US-Dollar aus dem Inkognito hervorging. DST Global Partners und Radical Ventures leiteten die Tranche unter Beteiligung des strategischen Partners Snowflake Ventures sowie einer Gruppe von Angel-Investoren, zu denen auch der ehemalige GitHub-CEO Nat Friedman gehörte.

RIKA mit Sitz in San Francisco ist die Idee von Danny Yogatama, Cyprian De Mason, Ke Leo Head und Yi Tai. Während sie an KI-Systemen wie AlphaCode und DeepMinds Bard arbeiteten, sagten die vier Mitbegründer, sie hätten erkannt, dass es unpraktisch sei, zu erwarten, ein großes LLM für alle potenziellen Anwendungsfälle einzusetzen.

„Wir verstehen die transformative Kraft der KI und möchten die Vorteile dieser Technologie auf verantwortungsvolle Weise in die Welt bringen“, sagte Yogatama gegenüber TechCrunch in einem E-Mail-Interview. „RICA ist ein Forschungs- und Produktunternehmen, das Modelle zum Nutzen der Menschheit, Organisationen und Institutionen entwickelt.“

Rekas erstes kommerzielles Produkt, Yasa, wird diesen hohen Ansprüchen nicht ganz gerecht. Aber es ist ein Beispiel für den frühen Ansatz des Startups. Yasa geht über Text hinaus und ist ein multimedialer KI-„Assistent“, der darauf trainiert ist, Bilder, Videos und Tabellendaten sowie Wörter und Phrasen zu verstehen. Yogatama sagt, dass es genutzt werden kann, um Erkenntnisse zu generieren und wichtige Fragen zu beantworten sowie Erkenntnisse aus internen Unternehmensdaten zu extrahieren.

Damit unterscheidet sich Yasa, das sich in der Closed Beta befindet, nicht von Modellen wie GPT-4, die auch Texte und Bilder verstehen können. Die Wende besteht jedoch darin, dass Yasa problemlos an proprietäre Daten und Apps angepasst werden kann.

„Unsere Technologie ermöglicht es Unternehmen, die Fortschritte bei LLMs auf eine Weise zu nutzen, die ihren Einsatzbeschränkungen entspricht, ohne dass ein Team interner KI-Experten erforderlich ist“, sagte Yogatama.

Yasa ist nur der Anfang. Als nächstes will Reka sein Augenmerk auf KI richten, die mehr Arten von Daten akzeptieren und generieren und sich kontinuierlich selbst verbessern kann, ohne dass eine Umschulung erforderlich ist.

See also  Bei dem Vorstoß, TikTok in den USA zu verbieten, geht es nicht um Datenschutz

Zu diesem Zweck bietet Reka, der derzeit nur ausgewählten Kunden zur Verfügung steht, auch einen Service zur Anpassung der von ihr entwickelten LLMs an individuelle oder proprietäre Unternehmensdatensätze an. Kunden können „destillierte“ Modelle je nach Anwendungs- und Projektbeschränkungen auf ihrer eigenen Infrastruktur oder über die Reka-API ausführen.

Es sollte beachtet werden, dass Reka nicht das einzige Startup ist, das nach Modellen sucht, die sich am besten für Unternehmensanwendungsfälle eignen. Mit Writer können Kunden LLM auf ihre eigenen Inhalte und Styleguides einstellen. Contextual AI und LlamaIndex, die kürzlich aus Inkognito hervorgegangen sind, entwickeln Tools, die es Unternehmen ermöglichen, ihre eigenen Daten zu bestehenden LLMs hinzuzufügen. Cohere schult LLMs nach Kundenspezifikationen.

Um nicht von etablierten Unternehmen wie OpenAI übertroffen zu werden, bieten sie jetzt Tools zur Feinabstimmung von Modellen an und verbinden sie mit dem Internet und anderen Quellen, um sicherzustellen, dass sie auf dem neuesten Stand bleiben.

Aber Rekas Verkaufsargument überzeugte einen frühen Kunden (und Investor), Snowflake, der mit dem Startup zusammenarbeitete, um Snowflake-Kunden die Bereitstellung von Yasa über ihre Konten zu ermöglichen. Appen, das Unternehmen für Big-Data-Analysen, gab kürzlich ebenfalls bekannt, dass es mit Reka zusammenarbeitet, um benutzerdefinierte, auf Modellen basierende Multimedia-Anwendungen für das Unternehmen zu entwickeln.

Dies sagte Rob Toews, Partner bei Radical Ventures, als er gefragt wurde, warum er in Reka investiert habe:

„Was Reka einzigartig macht, ist die Tatsache, dass es jedem Unternehmen die Leistungsfähigkeit und Möglichkeiten eines LLM bietet, ohne viele Kompromisse in Kauf nehmen zu müssen“, sagte Toews per E-Mail. „Die von Reka destillierten Yasa-Modelle speichern die Daten im eigenen Haus, sind unglaublich kosten- und energieeffizient und erfordern keine kostspieligen Forschungsteams, um Modelle von Grund auf neu zu erstellen. Wenn jedes Unternehmen zu einem Unternehmen für ‚künstliche Intelligenz‘ wird, ist es das Ziel von Reka, beides zu bieten.“ Viele dieser Unternehmen haben ihr eigenes Grundmodell der Produktionsqualität.“

Yogatama sagt, Reka, das derzeit keine Einnahmen generiert, werde seine bisherigen Mittel dazu verwenden, Rechenleistung von Nvidia zu erwerben und ein Geschäftsteam aufzubauen.

error: Content is protected !!