Lokale KI-Infrastruktur
mit integrierter Tool-Intelligenz.

OpenAI-kompatible API. Eigene Hardware in Oberösterreich.
Ihre Daten verlassen nie Österreich.

StandardLLM SmartLLM

StandardLLM
Wie ist das Wetter in Wels?
LLM verarbeitet...
Kein Zugriff auf aktuelle Daten
"Ich habe leider keinen Zugriff auf aktuelle Wetterdaten."
Halluzination oder Verweigerung
SmartLLM
Wie ist das Wetter in Wels?
~50ms
Checkin-Modell prüft:
Braucht der Prompt ein Tool?
weather_current API aufgerufen
→ Wels: 14°C, bewölkt, Wind 12 km/h
+ Eigene APIs als Plugin anbindbar
"In Wels sind es aktuell 14°C, bewölkt mit leichtem Wind aus Nordwest."
Faktische Antwort mit Echtzeitdaten
Wie funktioniert das im Detail?
55+ Tools verfügbar
100% Daten in Österreich
Eigene APIs als Plugin
OpenAI OpenAI-kompatibel

Tool-Augmentation

Unsere Modelle können rechnen, Einheiten konvertieren und externe APIs ansprechen. Deterministische Ergebnisse statt Halluzination - ein 9B-Modell mit Tools übertrifft ein nacktes 70B.

Alle Werkzeuge

Datensouveränität

Eigene Hardware in Oberösterreich. Kein Cloud-Provider, keine Drittstaaten, kein Training mit Ihren Daten. Betrieben mit 100% Ökostrom aus eigener PV-Anlage und regionaler Wasserkraft.

Mehr zur Sicherheit

OpenAI-kompatibel

Eine URL, ein API-Key. Funktioniert mit jedem Client der OpenAI unterstützt - ohne Vendor Lock-in.

API-Referenz

Warum wir das selbst bauen

SmartLLM entstand aus der eigenen Praxis - nach 25 Jahren in der Softwareentwicklung und digitalen Geschäftsmodellen. Wer KI-Infrastruktur für Unternehmen betreiben will, muss sie selbst verstehen. Bis runter zur Hardware.

Keine Daten für fremdes Training

Cloud-Anbieter behalten sich vor, Ihre Eingaben zur Modellverbesserung zu verwenden. Bei SmartLLM ist das technisch ausgeschlossen - Open-Source-Modelle auf eigener Hardware, ohne Datenabfluss.

Echte DSGVO-Compliance

EU-Hosting bei einem US-Anbieter löst das Grundproblem nicht. Eigene Hardware, kein Subunternehmer, keine Drittstaaten - das ist Datensouveränität, nicht nur ein Zertifikat.

Die Lücke zwischen LLM und Agent

Reine Sprachmodelle können nicht rechnen, keine aktuellen Daten abrufen, keine Systeme ansprechen. Autonome Agenten sind zu mächtig und unvorhersehbar. SmartLLM schließt diese Lücke: einzelne, deterministische Tool-Calls ohne Agent-Loop.

Versionsstabilität und Kontrolle

Cloud-Dienste ändern Modellversionen ohne Vorwarnung. Ein Workflow der gestern funktioniert hat, liefert heute andere Ergebnisse. Bei SmartLLM bestimmen Sie welches Modell läuft - und es bleibt so lange aktiv wie Sie es brauchen.

Ein Ansprechpartner, nicht ein Ticket

Kein Support-Portal, keine Warteschleife. Ein persönlicher Ansprechpartner der Ihre Infrastruktur kennt und der die Systeme selbst gebaut hat.

Bilder & Dokumente verstehen

Nicht nur Text: SmartLLM analysiert Bilder, Screenshots und PDFs direkt über die API. Rechnungen, Verträge, technische Zeichnungen: ein Call, alles auf eigener GPU in Österreich.

„Wer KI im Unternehmen einsetzt ohne die Infrastruktur zu kontrollieren, baut auf Sand. Cloud-Dienste werden eingestellt, Modellversionen geändert, Regionen gesperrt. Wir bauen fertige Lösungen auf eigener Hardware - von der Eingabe bis zum Ergebnis.“

- Mag. Michael Allerstorfer, ALL GmbH

Verfügbare Modelle

Lokale Inferenz auf dedizierter Hardware in Oberösterreich.

Wir testen jedes Modell mit 56 praxisnahen Tests bevor wir es einsetzen.

Zur Modell-Qualifikation

Multi-Agent Coding mit OpenCode

OpenCode ist ein Open-Source AI Coding Agent für Terminal und VS Code. Standardmäßig kommt er mit 4 Agents. Unser Setup erweitert das auf 9 spezialisierte Agents mit optimierten Prompts und den passenden Modellen. Ein Installer, Konfiguration übernehmen oder anpassen, sofort einsatzbereit.

Zum Konfigurator →

Einfach. Fair. Transparent.

10m Tokens kostenlos zum Testen und Einrichten
10 / 1m Tokens danach, alle Modelle, alle Anfragen
0 Grundgebühr Keine Bindung, nur Verbrauch

Ein Preis für alle Modelle. Keine versteckten Kosten. Keine Abonnements. Alle Preise netto zzgl. USt.

System Status

Echtzeit-Übersicht der Infrastruktur.

Alle Systeme operativ
-

Häufig gestellte Fragen

Was ist SmartLLM?
SmartLLM ist eine OpenAI-kompatible KI-API auf eigener Hardware in Österreich. Open-Source-Modelle mit integrierter Tool-Intelligenz - Ihre Daten verlassen nie das Land.
Wie viel kostet SmartLLM?
10 Millionen Tokens sind kostenlos zum Testen. Danach €10 pro Million Tokens - ein Preis für alle Modelle, keine Grundgebühr, keine Bindung.
Brauche ich technisches Wissen um SmartLLM zu nutzen?
SmartLLM ist vollständig OpenAI-kompatibel. Wenn Ihre Software mit OpenAI funktioniert, funktioniert sie auch mit SmartLLM - Sie ändern nur die URL und den API-Key.

Bereit für lokale KI-Infrastruktur?

Registrieren

Oder kontaktieren Sie uns direkt: E-Mail