Table of contents
KI-Assistent, gebaut für Sozialbetriebe in der Schweiz — Brüggli, OBVITA, Valida und vergleichbare Organisationen. Fokus: administrative Last reduzieren, ohne sensible Daten aus der Hand zu geben.
Was ist das?
Sozialbetriebe arbeiten täglich mit grossen Mengen Audio (Sitzungen, Gespräche) und Dokumenten (Berichte, Klientenakten, Protokolle). Suche, Zusammenfassung und Wiederverwendung dieser Inhalte kostet Zeit, die anderswo fehlt.
fridai.swiss adressiert genau das:
- Audio-Upload — Aufnahmen werden transkribiert und sind danach durchsuchbar und zusammenfassbar
- Dokumenten-Verarbeitung — beliebige Formate werden automatisch in Markdown konvertiert
- Chunking & semantische Suche — alle Inhalte (Text wie Audio) werden zerlegt, eingebettet und über semantische Suche zugänglich gemacht
- Chat über Dokumente — der Assistent kann auf einzelne Dokumente oder die ganze Library zugreifen
- Klientenchat — dedizierter Chat-Modus auf Klienten-Akten, der die jeweils relevanten Quellen heranzieht
Datenquelle für RAG sind ausschliesslich die Dokumente in der Library der App — keine externen Crawls, keine Drittquellen.
Stack & Architektur
- Nuxt für Frontend und API-Layer
- Python für Transkription, Konvertierung und die RAG-Pipeline
- LLaMA als Sprachmodell, lokal in der Schweiz betrieben
- Vektorindex für die semantische Suche über Chunks aus Text- und Audio-Inhalten
Alle LLMs laufen on-Prem in der Schweiz. Klientendaten verlassen die Infrastruktur des Auftraggebers nicht — kein US-Cloud-Hop, keine Drittanbieter-API für die Inferenz.
Herausforderungen
Heterogene Quellen, einheitlicher Index. Audio, PDFs, Office-Dokumente, Notizen — alles muss in eine Form, in der Chunking, Embeddings und Retrieval konsistent funktionieren. Lösung: alles auf Markdown normalisieren, dann chunken.
Klientenchat mit Kontext. Der Chat soll auf der Klienten-Akte arbeiten, ohne die Halluzinationsrate zu erhöhen. Retrieval ist auf den jeweiligen Klienten-Scope eingeschränkt, Antworten referenzieren ihre Quellen.
Datenschutz als Architektur-Entscheid. Lokale Modelle, lokale Daten — das ist nicht Feature, sondern Voraussetzung. Treibt fast jede Architektur-Entscheidung mit (Hosting, Modellwahl, Logging, Backups).
Ergebnisse
- Pilot bei Brüggli Admedia AG produktiv
- Administrative Recherche- und Zusammenfassungs-Aufwände messbar reduziert
- Sensible Klientendaten verbleiben on-Prem in der Schweiz