Ausschreibungs-Vorscreening
Ausschreibungen manuell bewerten kostet Zeit und führt zu inkonsistenten Entscheidungen. Dieser n8n-Workflow empfängt Ausschreibungen per E-Mail, bewertet sie mit Claude in 6 Dimensionen und liefert innerhalb von Sekunden einen strukturierten Vorscreening-Report.
Workflow
6 Schritte vom Posteingang zum Report
Der Workflow verarbeitet jede eingehende Ausschreibung vollautomatisch – von der E-Mail bis zum archivierten Bewertungsdokument.
Phasen
Was in jedem Schritt passiert
Eingang & Trigger
Der Workflow startet automatisch, sobald eine E-Mail mit Ausschreibungsinhalt eingeht. Das System erkennt, ob ein PDF-Anhang vorhanden ist oder ob die Ausschreibung direkt im E-Mail-Body enthalten ist – und leitet entsprechend weiter. Kein manuelles Anstoßen, kein Warten auf Weiterleitung.
Der Einstiegspunkt kommt vom System, nicht vom Menschen.
Nodes
Normalisierung & Deduplizierung
Metadaten wie Absender, Betreff und E-Mail-Body werden in eine einheitliche Struktur überführt. Eine Hash-basierte Deduplizierung prüft anschließend, ob dieselbe Ausschreibung bereits in den letzten 24 Stunden verarbeitet wurde – und verhindert Doppelläufe zuverlässig ohne externe Datenbank.
Gleiche Ausschreibung zweimal zugeschickt? Kein Problem – das System erkennt es.
Nodes
Inhaltsextraktion
Liegt ein PDF-Anhang vor, wird der Text daraus extrahiert und in das einheitliche Datenmodell überführt. Liegt kein Anhang vor, wird direkt der E-Mail-Text genutzt. Ein Merge-Node im Append-Modus stellt sicher, dass der Workflow in beiden Fällen korrekt weiterläuft – ohne hängenzubleiben.
PDF oder Text – beides funktioniert, ohne manuelle Vorsortierung.
Nodes
KI-Bewertung in 6 Dimensionen
Claude analysiert den Ausschreibungsinhalt anhand eines fest definierten Bewertungsmodells mit 6 Dimensionen: Monetäre Attraktivität, Operative Passung, Strategische Attraktivität, Risikobewertung, Kundenqualität und Verfahrensattraktivität. Jede Dimension erhält einen Score von 1–10 mit Begründung. Das Ergebnis ist ein strukturiertes JSON – kein freier Text, sondern ein wiederholbarer Output-Contract.
Nicht Bauchgefühl, sondern ein konsistentes Bewertungsmodell – jedes Mal gleich.
Nodes
Report-Erstellung
Das JSON-Ergebnis der KI wird in ein strukturiertes HTML-Dokument überführt: Zusammenfassung, visueller Score-Balken je Dimension, Gesamtempfehlung (EINREICHEN / PRÜFEN / ABLEHNEN) und empfohlene nächste Schritte. Der Report ist direkt lesbar – im E-Mail-Client, ohne Extratools.
Aus KI-Output wird ein entscheidungsreifes Dokument – in Sekunden.
Nodes
Bereitstellung & Archivierung
Der fertige Report wird intern per E-Mail zugestellt – an die zuständige Person, nicht zurück an den Einsender. Parallel speichert ein Supabase-Node alle relevanten Daten strukturiert in der Datenbank: Score, Empfehlung, Vollanalyse. So entsteht über Zeit ein Archiv, das Muster erkennbar macht: Welche Auftraggeber sind zuverlässig? Welche Ausschreibungstypen lohnen sich?
Jeder Report ist ein Datenpunkt. Aus vielen Datenpunkten entstehen Erkenntnisse.
Nodes
Bewertungsmodell
6 Dimensionen, je Score 1–10
Jede Ausschreibung wird anhand derselben Kriterien bewertet. Kein Bauchgefühl – ein definierter Output-Contract, der jedes Mal dieselbe Struktur liefert.
Monetäre Attraktivität
- –Auftragswert und Budget angemessen?
- –Zahlungsbedingungen akzeptabel?
- –Verhältnis Aufwand zu Ertrag sinnvoll?
Operative Passung
- –Passt das Projekt zu den Kernkompetenzen?
- –Kapazitäten im relevanten Zeitraum vorhanden?
- –Zeitplan und Meilensteine realistisch?
Strategische Attraktivität
- –Passt der Auftrag zur Unternehmensstrategie?
- –Erschließt er neue Märkte oder Referenzen?
- –Potenzial für Folgeaufträge?
Risikobewertung
- –Technische und operative Risiken beherrschbar?
- –Vertragliche Risiken akzeptabel?
- –Abhängigkeiten und Lieferantenrisiken gering?
Kundenqualität
- –Bonität und Zahlungsfähigkeit des Auftraggebers?
- –Ruf und bisherige Zusammenarbeit?
- –Kommunikationsqualität der Ausschreibung?
Verfahrensattraktivität
- –Chancen auf Zuschlag realistisch?
- –Aufwand für Angebotserstellung vertretbar?
- –Ausschreibungsunterlagen vollständig und klar?
Was Unternehmen aus diesem Workflow mitnehmen können
Das Muster hinter diesem Workflow – strukturierter Input, KI-Bewertung nach definierten Kriterien, strukturierter Output – funktioniert überall dort, wo heute manuelle Sichtung und Einzelbewertung Zeit kostet: Bewerbungen, Lieferantenanfragen, Support-Tickets, Angebote.
E-Mail als Workflow-Trigger
Kein neues Tool, kein Portal – die Ausschreibung wird einfach weitergeleitet. Der Workflow startet von selbst.
Konsistente Bewertungslogik
Statt Einzelmeinung ein definiertes Modell: jede Ausschreibung wird nach denselben Kriterien bewertet.
Wissen standardisieren
Erfahrungswissen über gute und schlechte Ausschreibungen wird explizit gemacht – und skalierbar.
Historische Auswertung
Jede Analyse landet in Supabase. Langfristig zeigt sich: Welche Auftraggeber, Volumina und Typen lohnen sich?
Von Stunden auf Minuten
Die Erstbewertung, die früher ein erfahrener Mitarbeiter in 1–2 Stunden erledigte, dauert automatisiert Sekunden.
Fehler kontrolliert abfangen
Duplikate, Parse-Fehler, LLM-Ausfälle – jeder Fehlerfall ist explizit behandelt, kein stilles Scheitern.
Ähnliche Prozesse in deinem Unternehmen?
Im kostenlosen Erstgespräch schauen wir gemeinsam, welche Prozesse in deinem Unternehmen von solchen Automatisierungen profitieren würden.
Kostenloses Erstgespräch buchen