Große Geschäftsmodelle (LAMs) revolutionieren die Welt der KI im Vergleich zu traditionellen Modellen.
Das Aufkommen generativer, KI-gestützter Chatbots hat zum Konzept eines „Large Language Model“ (LLM) geführt, einer fortschrittlichen KI-Technologie, die natürliche Sprache analysiert und versteht, um auf der Grundlage von Benutzeranfragen aussagekräftige Antworten zu generieren. Große Sprachmodelle sind in der Lage, konsistente, menschenähnliche Inhalte zu generieren und so den Eindruck zu erwecken, dass die KI über eine Art eigenes „Denken“ verfügt.
Sprachmodelle sind jedoch nicht die einzige Technologie, die zur Entwicklung künstlicher Intelligenz beiträgt. Der nächste Schritt könnten große Geschäftsmodelle (LAMs) sein. Der Schwerpunkt dieser Modelle liegt auf der Verbesserung der Analyse- und Entscheidungskompetenzen in praktischen Kontexten und kann möglicherweise Bereiche wie Automatisierung und Unternehmensführung verändern. In diesem Artikel erfahren wir, wie LLMs und LAMs funktionieren und welchen wachsenden Einfluss sie auf die Verbesserung von KI-Anwendungen und die Erweiterung ihres Anwendungsbereichs haben.

Was ist ein großes Geschäftsmodell (LAM)?
Ein Large Action Model (LAM) ist ein Modell der künstlichen Intelligenz, das in der Lage ist, menschliche Eingaben zu verstehen und die entsprechende Aktion auszuführen, sodass es auf menschenähnliche Weise mit der Welt interagieren kann. Dies ist ein etwas anderer Ansatz als KI-Modelle, die sich ausschließlich auf die Generierung von Antworten konzentrieren. Der Begriff „großes Geschäftsmodell“ wurde erstmals von Rabbit Inc, dem Entwickler des Rabbit R1, eingeführt. Im Rabbit R1-Startvideo des Unternehmens heißt es, dass es sich bei LAM um ein neues Grundmodell handelt, das dabei hilft, KI von Worten in die Tat umzusetzen.
LAMs werden anhand großer Mengen von Benutzeraktionsdaten trainiert. Daher lernen sie durch Nachahmung menschlicher Handlungen oder durch Demonstration. Durch die Demo kann das LAM-Modell die Benutzeroberflächen verschiedener Websites oder mobiler Anwendungen verstehen und navigieren und basierend auf Ihren Anweisungen bestimmte Aktionen ausführen. Entsprechend KaninchenLAM kann dies auch dann erreichen, wenn die Schnittstelle geringfügig geändert wird.
Sie können sich LAMs als Erweiterung der vorhandenen Funktionen von LLMs vorstellen. Während generative Text- oder Medienausgaben in LLMs auf Benutzereingaben beruhen, indem sie das nächste Wort oder Token vorhersagen (Sie stellen eine Frage und das LLM-Modell liefert Text- oder Medienausgaben), gehen LAMs noch einen Schritt weiter, indem sie die Möglichkeit hinzufügen, komplexe Aktionen in Ihrem Namen auszuführen.
Was können LAMs tun?
Bei LAMs geht es darum, komplexe Aktionen in Ihrem Namen durchzuführen. Der entscheidende Punkt ist jedoch die Fähigkeit, komplexe Eingriffe durchzuführen. Dies macht LAMs für fortgeschrittene Aufgaben nützlicher, bedeutet aber nicht, dass sie nicht auch einfachere Verfahren ausführen können.
Theoretisch bedeutet das, dass Sie das LAM-Modell beispielsweise bitten könnten, etwas in Ihrem Namen zu tun, etwa einen Kaffee in Ihrem örtlichen Café oder eine Uber-Fahrt zu bestellen und sogar eine Hotelreservierung vorzunehmen. Es unterscheidet sich also von der Ausführung einfacher Aufgaben wie der Aufforderung an Google Assistant, Siri oder Alexa, den Fernseher oder die Wohnzimmerbeleuchtung einzuschalten.
Unter der Haube kann das LAM-Modell gemäß der von Rabbit Inc. geteilten Vision auf eine relevante Website oder App wie Uber zugreifen und durch deren Schnittstelle navigieren, um eine Aktion auszuführen, beispielsweise eine Fahrt anzufordern oder eine zu stornieren, wenn Sie Ihre Meinung ändern.
LAMs werden LLMs übertreffen, aber sie sind (noch) nicht bereit
Das Konzept der LAMs ist spannend, vielleicht noch spannender als das der LLMs. Große Aktionsmodelle (LAMs) werden nach der generativen KI die Zukunft sein und es uns ermöglichen, alltägliche Aufgaben auszugleichen und uns auf andere erfüllende Aktivitäten zu konzentrieren. Doch so aufregend es auch klingen mag, LAMs sind noch nicht fertig.
Das erste kommerzielle Produkt, das die Nutzung von LAM versprach (Rabbit r1), hielt sein Marketingversprechen, Aktionen im Namen seiner Benutzer durchzuführen, nicht vollständig ein. Das Gerät versagte in seinem Hauptverkaufsargument so stark, dass es in vielen Rezensionen aus erster Hand als ziemlich nutzlos beschrieben wurde.
Schlimmer noch: Eine Untersuchung des YouTubers Coffeezilla in Zusammenarbeit mit einer ausgewählten Gruppe von Softwareentwicklern mit Zugriff auf einen Teil der Rabbit r1-Basis ergab, dass Rabbit Playwright-Skripte anstelle von LAM zum Ausführen von Aktionen verwendete. Anstelle einer Maschine, die ein einzigartiges KI-Modell ausführte, führte sie also eigentlich nur eine Reihe von If > Then-Anweisungen aus; Weit entfernt vom versprochenen LAM-Modell.
Wenn Sie etwas vom Rabbit r1 mitnehmen können, dann ist es, dass die Vision tatsächlich da ist. Allerdings muss vor der Implementierung noch einige Arbeit erledigt werden, also freuen Sie sich noch nicht zu früh.
Kommentarfunktion ist geschlossen.