Work

OPS-B486 // Brüggli Admedia AG

fridai.swiss

KI-Assistent für Schweizer Sozialbetriebe — Audio- und Dokumenten-Verarbeitung, semantische Suche, Klientenchat. Lokal gehostet in der Schweiz.

Datasheet

rev. B486

Status

In Progress

Year

2026

Client

Brüggli Admedia AG

Table of contents

KI-Assistent, gebaut für Sozialbetriebe in der Schweiz — Brüggli, OBVITA, Valida und vergleichbare Organisationen. Fokus: administrative Last reduzieren, ohne sensible Daten aus der Hand zu geben.

Was ist das?

Sozialbetriebe arbeiten täglich mit grossen Mengen Audio (Sitzungen, Gespräche) und Dokumenten (Berichte, Klientenakten, Protokolle). Suche, Zusammenfassung und Wiederverwendung dieser Inhalte kostet Zeit, die anderswo fehlt.

fridai.swiss adressiert genau das:

  • Audio-Upload — Aufnahmen werden transkribiert und sind danach durchsuchbar und zusammenfassbar
  • Dokumenten-Verarbeitung — beliebige Formate werden automatisch in Markdown konvertiert
  • Chunking & semantische Suche — alle Inhalte (Text wie Audio) werden zerlegt, eingebettet und über semantische Suche zugänglich gemacht
  • Chat über Dokumente — der Assistent kann auf einzelne Dokumente oder die ganze Library zugreifen
  • Klientenchat — dedizierter Chat-Modus auf Klienten-Akten, der die jeweils relevanten Quellen heranzieht

Datenquelle für RAG sind ausschliesslich die Dokumente in der Library der App — keine externen Crawls, keine Drittquellen.

Stack & Architektur

  • Nuxt für Frontend und API-Layer
  • Python für Transkription, Konvertierung und die RAG-Pipeline
  • LLaMA als Sprachmodell, lokal in der Schweiz betrieben
  • Vektorindex für die semantische Suche über Chunks aus Text- und Audio-Inhalten

Alle LLMs laufen on-Prem in der Schweiz. Klientendaten verlassen die Infrastruktur des Auftraggebers nicht — kein US-Cloud-Hop, keine Drittanbieter-API für die Inferenz.

Herausforderungen

Heterogene Quellen, einheitlicher Index. Audio, PDFs, Office-Dokumente, Notizen — alles muss in eine Form, in der Chunking, Embeddings und Retrieval konsistent funktionieren. Lösung: alles auf Markdown normalisieren, dann chunken.

Klientenchat mit Kontext. Der Chat soll auf der Klienten-Akte arbeiten, ohne die Halluzinationsrate zu erhöhen. Retrieval ist auf den jeweiligen Klienten-Scope eingeschränkt, Antworten referenzieren ihre Quellen.

Datenschutz als Architektur-Entscheid. Lokale Modelle, lokale Daten — das ist nicht Feature, sondern Voraussetzung. Treibt fast jede Architektur-Entscheidung mit (Hosting, Modellwahl, Logging, Backups).

Ergebnisse

  • Pilot bei Brüggli Admedia AG produktiv
  • Administrative Recherche- und Zusammenfassungs-Aufwände messbar reduziert
  • Sensible Klientendaten verbleiben on-Prem in der Schweiz

Build Manifest

Project Specs

manifest.json · B486

Dependencies

04
NuxtPythonLLaMARAG

Cross-References

// no related work indexed

// transmission · adjacent

prev / next operations

System Status: Ready

Start a similar mission

Klingt nach einem Projekt das du auch auf der Liste hast? Brief mich — der Wizard weiss schon dass du dieses hier gesehen hast.

Signal: Secure // Load: High