Alfred  ·  Techdemo
Was wir mitbringen
💻
Demo-Laptop (min. 16 GB RAM) Alfred-Server läuft lokal, kein externes Netz nötig
🌐
Chrome mit vorinstallierter Extension Für die Recorder-Demo; Developer Mode aktiviert
🏢
Mock-CRM (self-hosted auf Laptop) Fiktives CRM-System mit vorbereiteten Demo-Datensätzen — keine echten Daten
🔌
Ladekabel + Netzwerk-Adapter (USB-C → LAN) Für stabilen LAN-Zugang falls WLAN-Zugang unzuverlässig
📋
Vorbereitete Demo-Szenarien (getestet) Mindestens 2 Durchläufe vor Ort vorab durchlaufen
Vorab beim Kunden klären
📶
WLAN-Zugang oder LAN-Port für unseren Laptop Nur nötig falls wir etwas aus dem Kundennetz demonstrieren sollen — für reine Mock-Demo nicht erforderlich
🔒
Genehmigung für selbstentwickelte Extension Kurz ansprechen: Developer Mode in Chrome. Extension verbindet sich nur mit lokalem Server.
📺
Bildschirm / Beamer vorhanden? HDMI oder DisplayPort; alternativ eigenen Adapter mitbringen
👥
Wer ist dabei? IT-Entscheider und ein zukünftiger Anwender (Renate-Profil) sollten anwesend sein
Testumgebung für die Demo
Keine echten Kundendaten — niemals

Die Demo läuft ausschließlich gegen unser eigenes Mock-CRM mit fiktiven Datensätzen (Firma „Muster GmbH“, Angebot ANB-2024-0042, Testkontakte). Der Kunde sieht die Funktionsweise, aber keine seiner echten Daten berühren das System.

Falls der Kunde eine Demo gegen seine eigene Testumgebung wünscht: das ist möglich, erfordert aber Netzwerk-Zugang und vorab eine kurze Workflow-Anpassung (½–1 Tag Vorlauf).

Demo-Ablauf
Gesamt: 45–60 Minuten. Flexibel kürzen ab Schritt 3 falls wenig Zeit.
1
Einstieg
Kontext & Problem — warum Alfred?
Renate-Szenario: was kostet der manuelle Prozess heute, was kann automatisiert werden
5 min
2
Live-Demo · Hauptszenario
Aufgabe in Chat-UI eingeben — Bot führt sie aus
„Erstelle ein Angebot für das Projekt ERP-Einführung Phase 3“ — komplett automatisch, sichtbar im Browser
15 min
3
Live-Demo · Extension
Wie nimmt Renate einen neuen Workflow auf?
Extension öffnen → Seite scannen oder Ablauf aufzeichnen → LLM-Enrichment → YAML-Preview → an Cortex senden
10 min
3b
Optional · Prozessbegleiter
Alfred führt einen neuen Mitarbeiter durch den Prozess
Guidance Mode aktivieren → Control Flow Panel + Annotation Marks → Abweichungserkennung bei übersprungenen Feldern
5 min
4
Architektur
On-Premise, Air Gap, keine Cloud-Abhängigkeit
Kurze Referenz auf Architekturschaubild — beruhigt IT-Entscheider bzgl. Datenschutz
5 min
5
Optional · wenn Zeit und Interesse
Zweites Szenario oder Kundenwunsch live
z.B. Kontaktformular, Account erstellen, oder ein vom Kunden genannter Prozess (wenn vorbereitet)
10 min
Q&A
Abschluss
Fragen, nächste Schritte, Pilot-Programm vorstellen
Pilotkundenprogramm kurz skizzieren; Vorab-Klärungen ansprechen (Netz, Extension, Testumgebung)
15 min
Demo-Szenarien (vorbereitet)
Alle laufen gegen Mock-CRM. Hauptszenario immer zuerst — es ist das überzeugendste.
⭐ Haupt-Szenario
Angebot kopieren
Bot liest ein bestehendes Angebot (4 Positionen, Stammdaten) und überträgt alles in ein neues Formular — zwei Browser-Tabs, vollautomatisch.
Szenario 2
Webseite kontaktieren
Bot navigiert zu einem Kontaktformular und füllt es aus. Gut für nicht-CRM-Anwendungen.
Szenario 3
Account anlegen
Zeigt Fehlerbehandlung: Bot versucht Account zu erstellen, formuliert schiefgelaufenes Feld und wartet auf Nutzerantwort.
Szenario 4
Recorder live
Neuen Workflow direkt vor Ort aufnehmen (nur wenn Extension läuft und Zeit reicht). Stärkstes Argument für „kein Programmieren nötig“.
Szenario 5
Mail-to-Web Pipeline
Mail kommt rein → Alfred peekt Inbox → User wählt Mail → OCR + LLM-Extraktion → Datenvorschau mit Confidence-States → Formular wird automatisch gefüllt.
Szenario 6
Prozessbegleiter (Guidance)
Alfred führt durch ein Formular: Control Flow Panel zeigt den aktuellen Schritt, Annotation Marks an den Feldern, Abweichungserkennung bei übersprungenen Pflichtfeldern.
Szenario 7
Spracheingabe
Aufgaben per Mikrofon diktieren statt tippen. Self-hosted Whisper auf GPU, deutsche Spracherkennung, komplett lokal. Push-to-Talk im Browser.
Coming Soon
OpenAPI Agent
KI-gesteuerter HTTP-Client: Intent erkennen, Daten aus Dokumenten extrahieren, API-Schema automatisch befüllen und absenden. Jede REST-API mit OpenAPI-Spec.
Fallback & Troubleshooting
Wenn etwas nicht klappt
Ollama startet nicht: vorab Modell pullen, Dienst beim Hochfahren starten lassen
Kein Netz am Laptop: Mock-Demo läuft komplett lokal, kein Internet nötig
Extension blockiert: Demo ohne Recorder-Teil durchführen; Extension als Screenshot zeigen
Playwright-Fenster öffnet sich nicht: Browser-Pfad in Config prüfen; Chrome-Pfad hardcoden
Demo dauert zu lang: ab Schritt 3 kürzen; Recorder-Demo streichen, dafür Architektur-Slide zeigen