On-Premise-KI-Exploration für KMU
Problem: Ein KMU wollte KI für Dokumentenanalyse nutzen, weigerte sich aber, vertrauliche Daten an Cloud-APIs (ChatGPT, Claude) zu senden. Lösung: Bereitstellung eines Mistral-7B-Modells on-premise auf dedizierter GPU (lokaler Server) mit RAG-Schnittstelle zur Abfrage der internen Dokumentenbasis. Ergebnis: funktionale KI ohne Daten, die das IS verlassen, Betriebskosten < 200 €/Monat, Leistung angepasst an den Anwendungsfall.