Logobild: Cloudera

Die auf hybride Datenplattformen, Analytik und KI ausgerichtete Cloudera hat eine Reihe neuer Lösungen zur Beschleunigung von Machine Learning-Projekten (AMPs) lanciert. Ziel sei es, die KI-Integration zu unterstützen und die Time-to-Value für KI-Anwendungsfälle in Unternehmen innerhalb der Cloudera-Plattform zu verkürzen, teilt das Unternehmen mit Zentrale im kalifornischen Palo Alto mit.

AMPs sind End-to-End-Projekte basierend auf maschinellem Lernen (ML), die mit nur einem Mausklick direkt auf der Cloudera-Plattform ausgeführt werden können. Zu den neuen AMPs und Updates zählen:
- Fine-Tuning Studio: Dieses soll Nutzern eine allumfassende Anwendung und ein "Ökosystem" für die Verwaltung, Feinabstimmung und Bewertung von LLMs (Large Language Models) offerieren.
- RAG with Knowledge Graph: Soll demonstrieren, wie eine RAG-Anwendung (Retrieval Augmented Generation) mit einem Wissensgraphen betrieben werden kann, um Zusammenhänge und Kontexte zu erfassen, die über Vektorspeicher allein nicht leicht zugänglich sind.
- Promptbrew: Bietet KI-gestützten Support bei der Erstellung von Prompts über eine einfache Benutzeroberfläche.
- Chat with Your Documents: Baut auf dem früheren LLM Chatbot Augmented with Enterprise Data AMP auf und optimiert die Antworten des LLMs, indem es den Kontext aus einer internen Datenbank nutzt. Diese wird aus den vom Benutzer hochgeladenen Dokumenten generiert.

Die AMPs von Cloudera sollen aber nicht nur KI-Projekte beschleunigen, sonder sie seien auch völlig frei zugänglich und enthalten Anweisungen zur Implementierung für jede Umgebung, was das Engagement von Cloudera für die Open-Source-Community unterstreiche, wird in der Mitteilung betont.

"In der heutigen Zeit leiden Unternehmen unter Zeit- und Ressourcenmangel bei der Umsetzung von KI-Projekten", sagt Dipto Chakravarty, Chief Product Officer bei Cloudera. "Unsere AMPs sind Katalysatoren, um KI-Projekte mit vorgefertigten Lösungen und Arbeitsbeispielen vom Konzept bis zur Realisierung zu beschleunigen. Ausserdem stellen sie sicher, dass die Anwendungsfälle zuverlässig und kosteneffektiv sind, während die Entwicklungszeit reduziert wird. Dadurch ergeben sich für die Unternehmen schnelle Produktivitätsgewinne sowie Effizienzsteigerungen aus den KI-Initiativen."

In diesem Zusammenhang kündigte Cloudera auch neue Partnerschaften an. Neben den bereits bestehenden Kooperationen mit Nvidia, Amazon Web Services (AWS) und Pinecone, werden laut den Angaben neu auch Anthropic, Google Cloud und Snowflake Teil des Cloudera AI Ecosystems AI.

Dipto Chakravarty, Chief Product Officer bei Cloudera (Bild: zVg)
Dipto Chakravarty, Chief Product Officer bei Cloudera (Bild: zVg)