So funktioniert SmartLLM

Die kontrollierte Mitte zwischen nacktem LLM und autonomem Agent

Seit ChatGPT 2023 populär wurde, hält sich ein Missverständnis: KI muss alles wissen, sonst taugt sie nichts. Das führt dazu, dass für jede Aufgabe Frontier-Modelle eingesetzt werden - obwohl ein kompaktes 9B-Modell mit den richtigen Werkzeugen 90% der Anwendungsfälle besser löst. Schneller, günstiger, und ohne Halluzination bei Fakten.

SmartLLM verarbeitet auch Bilder und PDF-Dokumente. Rechnungen analysieren, Verträge zusammenfassen, technische Zeichnungen auswerten: direkt über die API, in einem Call. Die Verarbeitung passiert vollständig auf eigener GPU-Infrastruktur in Österreich.

Am anderen Ende des Spektrums stehen autonome Agenten, die eigenständig handeln - E-Mails versenden, Dateien löschen, Systeme steuern. Mächtig, aber in der Praxis schwer kontrollierbar und für den Produktiveinsatz in Unternehmen riskant.

SmartLLM ist die kontrollierte Mitte: ein einziger API-Call, bei dem das Modell gezielt auf Werkzeuge zugreift - ohne Autonomie, ohne Loops, ohne Überraschungen.

Standard LLM

Reines Sprachmodell. Nur Trainingswissen. Halluziniert bei Faktenfragen. Kein Zugriff auf externe Systeme.

Nicht genug

SmartLLM Empfohlen

Ein API-Call mit deterministischen Tools im Hintergrund. Echtzeitdaten durch verifizierte APIs. Vorhersehbares Verhalten. Eigene APIs als Plugins. DSGVO-konform.

Der Sweet Spot

Autonomer Agent

Viele Loops, hoher Token-Verbrauch. Schwer vorhersagbar. Braucht Supervision und Guardrails. Mächtig aber riskant für Produktion.

Zu viel

Sensible Daten gehören nicht in die Cloud

Sobald Kundendaten, Verträge oder Finanzzahlen im Prompt stehen, ist eine Cloud-API ein Risiko. Sie wissen nicht wo die Daten verarbeitet werden, wer Zugriff hat und ob sie zum Training verwendet werden. Mit SmartLLM bleibt der gesamte Request auf eigener Hardware in Österreich - auch wenn das Modell mit Tools auf externe Daten zugreift, verlässt Ihr Prompt nie die Infrastruktur.

Der SmartLLM Flow

Ein Request, sechs Schritte, ein Ergebnis mit echten Daten.

  1. Prompt kommt rein
    Der Client sendet einen normalen OpenAI-kompatiblen Request. "Wie ist das Wetter in Wels?"
  2. Checkin-Modell prüft (~50ms)
    Ein schnelles 8B-Modell entscheidet ob der Prompt ein Tool braucht. Kein Token-Verbrauch am großen Modell.
  3. Tool wird aufgerufen
    weather_current API liefert: 4.1°C, bewölkt, Wind 12 km/h. Deterministische Daten, kein Raten.
  4. Prompt wird angereichert
    Original-Prompt + Tool-Ergebnis werden kombiniert. Das Zielmodell bekommt alles in einem Call.
  5. Zielmodell antwortet
    Das große Modell formuliert eine natürliche Antwort basierend auf echten Daten.
  6. Client bekommt Antwort
    "In Wels sind es aktuell 4.1°C, bewölkt mit leichtem Wind." - Faktisch korrekt, ein API-Call.

Bilder & Dokumente verstehen

Ein API-Call für Text, Bilder und PDFs, alles auf eigener Hardware in Österreich.

Bildanalyse

Fotos, Screenshots, Diagramme: das Modell beschreibt, klassifiziert und extrahiert Informationen aus Bildern. OpenAI-kompatibles Format, base64 oder URL.

PDF-Verarbeitung

PDF hochladen, Zusammenfassung erhalten. Rechnungen, Kontaouszüge, Verträge, Reports. Jede Seite wird analysiert. Bis zu 20 Seiten pro Dokument.

Datenresidenz

Bilder und Dokumente werden auf NVIDIA DGX Hardware in Österreich verarbeitet. Keine Cloud, kein Drittanbieter, keine Speicherung.

Warum deterministisch?

Tools liefern exakte Ergebnisse - kein Raten, kein Halluzinieren.

Taschenrechner-Tool

Gibt 345 zurück. Nicht "ungefähr 340". Nicht "circa 350". Exakt.

Wetter-API

Gibt 4.1°C zurück. Nicht "es könnte kühl sein". Live-Daten von Open-Meteo.

Häufig gestellte Fragen

Was ist der Unterschied zwischen SmartLLM und einem normalen LLM?
Ein normales LLM kann nur mit seinem Trainingswissen antworten. SmartLLM reichert Anfragen automatisch mit Echtzeitdaten an - durch deterministische Tool-Calls, in einem einzigen API-Call.
Was bedeutet Tool-Augmentation?
Das Modell erkennt automatisch ob eine Anfrage externe Daten braucht - etwa aktuelle Wetterdaten oder eine mathematische Berechnung - und ruft das passende Werkzeug auf. Das Ergebnis fließt direkt in die Antwort ein.
Ist SmartLLM ein autonomer Agent?
Nein. Autonome Agenten handeln eigenständig in mehreren Schleifen und sind schwer kontrollierbar. SmartLLM führt einzelne, deterministische Tool-Calls aus - ohne Loops, ohne Überraschungen.
Kann SmartLLM Bilder und PDFs verarbeiten?
Ja. SmartLLM unterstützt Bildanalyse und PDF-Verarbeitung über die Standard OpenAI Vision API. Bilder werden als base64 oder URL im messages-Array übergeben, PDFs werden serverseitig gerendert und seitenweise analysiert. Die gesamte Verarbeitung läuft auf eigener GPU-Hardware in Österreich.

Bereit für intelligentere Antworten?

Erstellen Sie einen Account und testen Sie SmartLLM im Playground.

Jetzt testen