Das Massen-Experiment von 2023 hat uns eines deutlich gezeigt: KI-geschriebene Cold-E-Mails ohne Leitplanken sind schlechter als gar keine KI. Prospekte haben den Ton gelernt und Öffnungs-zu-Antwort-Quoten sind gesunken. Aber eine kleinere Gruppe von Teams hat weitergemacht, den Ansatz justiert und sieht Anfang 2024 Antwortraten, die besser sind als alles, was wir bei rein menschlichen Teams gemessen haben. Der Unterschied liegt darin, wie sie prompten — nicht welches Modell sie nutzen.
Das Drei-Schichten-Personalisierungs-Muster
Die Teams, die das 2024 gut machen, strukturieren jede KI-geschriebene E-Mail in drei Schichten:
- Fakt-Schicht (der Opener) — ein spezifischer, überprüfbarer Fakt über den Prospekt. Kein Kompliment, keine generische Beobachtung. Ein Fakt. Etwas, das Sie zitieren könnten.
- Relevanz-Schicht (die Brücke) — ein Satz, der den Fakt mit einem Problem verknüpft, das der Prospekt plausibel hat.
- Frage-Schicht (die CTA) — kurz, konkret, niedrigschwellig. Immer von einem Menschen geschrieben, nie von KI.
KI erledigt Schicht 1 und 2. Menschen erledigen Schicht 3 und die Vorlage drumherum. Die Fakt-Schicht ist dort, wo die meisten Teams scheitern, weil sie dem Modell LinkedIn-„Über“-Texte füttern statt echter Signale.
Was einen guten Opener füttert
- Aktuelle Jobwechsel (unter 90 Tage)
- Finanzierungsrunden und Stellenausschreibungen
- Tech-Stack-Ergänzungen oder -Entfernungen
- Aktuelle Podcast-Auftritte oder verfasste Artikel
- Spezifische Produkt-Launches oder Pressemitteilungen
Was nicht funktioniert: „Ich sehe, Sie arbeiten bei [Unternehmen]“ — das ist kein Fakt, das ist ein Feld-Merge. Das Modell schreibt etwas grammatikalisch korrektes, völlig leeres.
Das Prompt-Muster, das wirklich funktioniert
Sie schreiben einen Satz. Der Satz bezieht sich auf diesen spezifischen Fakt: [FAKT]. Der Satz muss klingen, als hätte ein Mensch ihn direkt nach dem Lesen des Fakts geschrieben. Kein Schmeicheln. Verwenden Sie nicht die Wörter „bemerkt“, „gesehen“, „gestoßen auf“. Beginnen Sie nicht mit „Ich“. Maximal 18 Wörter.
Einschränkungen sind wichtiger als Kreativität. Das Modell schreibt schlechtere Sätze, wenn Sie es bitten, „kreativ zu sein“, als wenn Sie ihm drei harte Regeln geben.
Das Stimmen-Problem
GPT-4 hat einen Default-Ton. Wenn Sie es ohne Stimmen-Anweisung nutzen, klingen Ihre 1.000 E-Mails identisch — und entscheidend: identisch zu jedem anderen Unternehmen, das GPT-4 nutzt. Die Lösung ist ein einseitiges Stimmen-Dokument mit Ihrer typischen Satzlänge, Ihren verbotenen Wörtern und zwei bis drei Beispielsätzen, die Sie selbst geschrieben haben.
Was das einem Team tatsächlich ermöglicht
Ein 2-Personen-SDR-Team kann 2024 400 wirklich personalisierte E-Mails pro Woche senden, ohne zu templatieren. Diese Zahl benötigte früher 6 Personen. Die eingesparte Zeit fließt in Targeting und Antworten — wo Menschen jedem Modell überlegen sind.
„Wir schreiben nicht schneller. Wir zielen enger. KI hat uns die Stunden zurückgegeben, die wir mit Copy-Paste verbrannt haben."
Wo die Grenze liegt
GPT-4 kann nicht:
- Entscheiden, ob ein Prospekt überhaupt kontaktiert werden sollte
- Die CTA schreiben
- Antworten jenseits von Routing verarbeiten
- Ton für spezifische kulturelle Kontexte beurteilen
Das sind immer noch menschliche Aufgaben. KI ist der schnellste Weg, die mechanischen Teile zu erledigen — kein Ersatz für die Teile, die Urteil erfordern.