Weiter zum Hauptinhalt

A/B-TESTS FÜR E-MAILS

Teste deine E-Mail-Marketing-Kampagnen im großen Stil mit A/B-Tests

Teste Betreffzeilen, Inhalte, Sendezeiten oder Absendernamen, um zu sehen, was funktioniert. Datengestütztes Testen steigert das Öffnen, Klicks und Konversionen.

A/B test comparison showing two versions of a free shipping popup for The Potted Planter, one with warm colors and one with cool colors

Auf einen Blick

  • Was es leistet

    ✓ Misst Öffnungen, Klicks und Einnahmen
    ✓ Identifiziert erfolgreiche Kampagnenelemente
    ✓ Vergleicht automatisch zwei E-Mail-Versionen

  • Für wen ist es gedacht?

    ✓ Marketingfachleute optimieren die E-Mail-Performance
    ✓ E-Commerce-Unternehmen steigern den Umsatz
    ✓ Teams treffen datengestützte Entscheidungen

  • Wichtige Ergebnisse

    ✓ Höhere E-Mail-Öffnungs- und Klickraten
    ✓ Verbesserte Konversionsraten und Umsätze
    ✓ Besseres Verständnis deiner Zielgruppe

Pink cherry blossom pop-up card being displayed on white surface, with person in red Lovepop shirt in background

FALLSTUDIE

Lovepop verdoppelt Engagement und Umsatz durch A/B-Tests

Mailchimp half Lovepop, Anbieter für personalisierte Pop-up-Grußkarten, dabei die Performance seiner E-Mails zu verbessern, indem A/B- und multivariate Tests eingesetzt wurden, um Betreffzeilen, Versandzeiten und Inhalte zu optimieren. Indem das Team kontinuierlich lernte, was gut bei den Kunden ankommt, verdoppelte es sowohl das Engagement (Öffnen und Klicks) als auch den Umsatz und machte das Testen zu einem Kernbestandteil seiner E-Mail-Strategie.

Cartoon illustration of a smiling character in orange coat and hat holding art supplies in spotlight against blue background

FALLSTUDIE

RetroSupply Co. entwickelt eine Geschäftsstrategie auf Basis von Testerkenntnissen

Mailchimp half RetroSupply Co. dabei, durch das Testen von Inhaltsformaten und E-Mail-Elementen herauszufinden, was Kunden motiviert. Anstatt Annahmen zu treffen, nutzte die Marke Erkenntnisse aus A/B-Tests, um nicht nur ihre E-Mail-Strategie, sondern ihr gesamtes Marketing zu beeinflussen, was durch ein besseres Verständnis der Zielgruppe zu echten Verbesserungen des Umsatz- und Listenwachstums führte.

Teste unseren Standard-Tarif kostenlos!

Finde heraus, warum Kunden mit dem Standard-Tarif und einer 14-tägigen Testversion einen bis zu 24-fachen ROI* erzielen†. Du kannst jederzeit kündigen oder auf unseren Essentials- oder kostenlosen Free-Tarif herabstufen.

Finde heraus, warum Kunden mit dem Standard-Tarif und einer 14-tägigen Testversion einen bis zu 24-fachen ROI* erzielen†. Du kannst jederzeit kündigen oder auf unseren Essentials- oder kostenlosen Free-Tarif herabstufen.

15 % Rabatt auf unseren Standard-Tarif

Gib weniger aus, um mehr zu wachsen! Mit 15 % Rabatt für 12 Monate*, auch wenn du zu unseren Premium- oder Essentials-Tarifen wechselst. Du kannst jederzeit kündigen oder auf unseren kostenlosen Free-Tarif herabstufen.

Gib weniger aus, um mehr zu wachsen! Mit 15 % Rabatt für 12 Monate*, auch wenn du zu unseren Premium- oder Essentials-Tarifen wechselst. Du kannst jederzeit kündigen oder auf unseren kostenlosen Free-Tarif herabstufen.

  • Generative KI-Funktionen

  • Umsetzbare Einblicke in das Wachstum der Zielgruppe und die Konversionstrichter

  • Erweiterte Automatisierungen

  • Benutzerspezifisch programmierte E-Mail-Vorlagen

  • Benutzerdefinierte Pop-up-Formulare

  • Personalisiertes Onboarding

Standard

Sende jeden Monat bis zu 6.000 E-Mails.

Kostenlos für 14 Tage

Danach ab: 0 pro Monat†

pro Monat für 12 Monate

Danach ab: pro Monat†

†Weitere Informationen findest du in den AGB für kostenlose Testversionen. Wenn das Sendelimit für Kontakte oder E-Mails überschritten wird, fallen Mehrkosten an. Mehr erfahren

Häufig gestellte Fragen

  • Datengestützte Entscheidungsfindung Jeder A/B-Test ist eine wissenschaftliche Erfahrung, die mit einer Testhypothese darüber beginnt, welche Elemente andere übertreffen sollten. Durch das systematische Testen verschiedener Elemente – von Website-Layouts bis hin zu E-Mail-Betreffzeilen – kannst du genau herausfinden, was bei deiner Zielgruppe Anklang findet und zu besseren Testergebnissen führt.

    Verbesserte Konversionsraten A/B-Tests wirken sich direkt auf dein Geschäftsergebnis aus, indem sie dir genau zeigen, was zu Konversionen führt. Selbst kleine Änderungen können, wenn sie durch Tests validiert werden, zu signifikanten Verbesserungen der Konversionsraten führen. Jeder erfolgreiche Test baut auf vorherigen Erfolgen auf und erzeugt so einen kumulativen Effekt, der deine Marketingleistung drastisch verbessern kann.

    Verbesserte Benutzererfahrung A/B-Tests helfen dir zu verstehen, welche Inhaltsversionen auf verschiedenen Geräten und Plattformen besser funktionieren. Durch die Verfolgung von Verhaltensmustern und Engagement-Kennzahlen kannst du die Kundenprobleme bestimmen. Mit diesen Erkenntnissen kannst du reibungslosere, intuitivere Erlebnisse schaffen, die Benutzer motivieren und für Konversion sorgen.

    Geringeres Risiko und Kosten Die Durchführung von A/B-Tests vor der vollständigen Implementierung von Änderungen hilft dir, kostspielige Fehler zu vermeiden. Anstatt größere Veränderungen an deiner gesamten Zielgruppe vorzunehmen, kannst du Daten aus einer kleineren Stichprobe sammeln, um deine Ideen auf den Prüfstand zu stellen. Mit diesem Ansatz sparst du Geld und schützt gleichzeitig deine Marke, indem sichergestellt wird, dass neue Designs die Leistung tatsächlich verbessern. Wenn du in Veränderungen investierst, kannst du dies mit Zuversicht tun, da du weißt, dass deren Wirksamkeit durch Tests nachgewiesen wurde.

  • A/B-Tests (Split-Testing) sind eine Methode, bei der zwei Versionen einer E-Mail verglichen werden, um festzustellen, welche bei der Zielgruppe besser ankommt. Du änderst ein Element (Betreffzeile, Inhalt, Absendername oder Sendezeitpunkt), sendest beide Versionen an verschiedene Abonnentensegmente und misst, welche Version bessere Ergebnisse erzielt, basierend auf Öffnungen, Klicks oder Umsatz. Die Gewinnerversion kann dann an deine verbleibenden Abonnenten gesendet werden.

  • Mailchimp benötigt mindestens 10 % deiner Liste für Tests, aber wir empfehlen mindestens 5.000 Abonnenten pro Variante (10.000 insgesamt), um zuverlässige Ergebnisse zu erzielen. Ein größerer Stichprobenumfang erhöht die Sicherheit, dass die Ergebnisse nicht auf Zufall beruhen. Wenn deine Liste kleiner ist, kannst du trotzdem testen, solltest die Tests jedoch länger durchführen und dich auf klare, signifikante Unterschiede statt auf kleine Verbesserungen konzentrieren.

  • Mailchimps A/B-Tests ermöglicht es dir, vier Variablen zu testen: Betreffzeilen (einschließlich Personalisierung, Länge, Emojis), Absendernamen (persönlich vs. Firmenname), E-Mail-Inhalte (Layouts, Bilder, Texte, CTAs) und Sendezeiten (Wochentag und Tageszeit). Du testest pro Kampagne eine Variable, um genau zu wissen, was die Leistungsunterschiede verursacht hat.

  • Die Testdauer hängt davon ab, was du misst. Für Öffnungsraten wartest du 2-12 Stunden (2 Stunden ergeben eine Genauigkeit von 80 %, mehr als 12 Stunden ergeben eine Genauigkeit von über 90 %). Für Klickraten wartest du 1-3 Stunden. Bei Umsatztests sollte man 12-24 Stunden warten, da Käufe erst nach dem Öffnen und den Klicks erfolgen. Diese Zeitrahmen gehen von Listen mit mehr als 5.000 Abonnenten pro Variante aus. Kleinere Listen benötigen längere Testperioden, um statistische Signifikanz zu erreichen.

  • Führe jeweils nur einen Test durch Mehrere Tests gleichzeitig durchzuführen mag effizient erscheinen, kann aber die Ergebnisse trüben. Wenn du eine E-Mail-Betreffzeile testest, während du auch die Buttonfarben in derselben Kampagne testest, erkennst du nicht, welche Änderung die Verbesserung verursacht hat. Gestalte es einfach und teste ein Element nach dem anderen, miss seine Auswirkungen und gehe dann zu deinem nächsten Test über.

    Stelle sicher, dass die Stichprobe groß genug ist Kleine Testgruppen liefern unzuverlässige Ergebnisse. Strebe mindestens 5.000 Abonnenten pro Variante an (insgesamt mindestens 10.000 für einen Test mit zwei Varianten). Größere Stichproben erhöhen die Gewissheit, dass die Ergebnisse nicht auf Zufall beruhen. Wenn deine Liste kleiner ist, verlängere die Testdauer, um mehr Interaktionsdaten zu sammeln, bevor du einen Gewinner ermittelst.

    Vermeide Tests in ungewöhnlichen Zeiträumen Feiertage, große Verkaufsveranstaltungen oder ungewöhnliche Nachrichtenereignisse können deine Ergebnisse verfälschen. Wenn du zum Beispiel die Betreffzeilen von E-Mails während der Black Friday-Woche testest, erhältst du keine verlässlichen Daten darüber, was während der normalen Geschäftszeiten funktioniert. Warte lieber, bis sich die Geschäftslage normalisiert hat, bevor du deine Tests durchführst. Das stellt sicher, dass deine Ergebnisse das ganze Jahr über nützlich sind. Wenn du in speziellen Zeiträumen testen musst, vergleiche diese Ergebnisse nur mit ähnlichen Zeiträumen.

    Führe Tests in voller Dauer durch Lass deine Tests lange genug laufen, um verlässliche Daten zu erfassen. Wenn du sie zu früh beendest, kann das zu unzuverlässigen Ergebnissen führen. Die meisten A/B/n-Tests dauern mindestens 1–2 Wochen, aber das hängt wirklich von deinem Traffic und deinen Konversionsraten ab. Warte, bis du statistische Signifikanz erreichst – in der Regel ein Konfidenzniveau von 95 % –, bevor du dich für eine Gewinnervariante entscheidest.

    Dokumentiere und teile Erkenntnisse Erstelle ein Testprotokoll, in dem du dokumentierst, was du getestet hast, deine Hypothese, die Ergebnisse und die gewonnenen Erkenntnisse. Teile die Ergebnisse mit deinem Team. Diese Erkenntnisse summieren sich im Laufe der Zeit und helfen dir, deine Zielgruppe eingehend zu verstehen. Selbst „fehlgeschlagene“ Tests (bei denen keine der Versionen deutlich besser abschneidet) liefern wertvolle Informationen darüber, was keine Wirkung zeigt.

  • Ja, A/B-Tests funktionieren mit den automatisierten E-Mail-Workflows von Mailchimp, einschließlich Willkommensserien, Warenkorbabbruch-E-Mails und Sequenzen nach dem Kauf. Das Testen automatisierter E-Mails hilft dabei, die Customer Journeys im Laufe der Zeit zu optimieren. Du benötigst jedoch ausreichend Traffic durch die Automatisierung, um aussagekräftige Ergebnisse zu erzielen. Konzentriere dich daher zuerst auf deine automatisierten Kampagnen mit dem höchsten Volumen.

  • Statistische Signifikanz bedeutet, dass du darauf vertrauen kannst, dass deine Testergebnisse echte Unterschiede widerspiegeln und nicht auf reinem Zufall beruhen. Ein Konfidenzniveau von 95 % (Branchenstandard) bedeutet, dass nur eine Wahrscheinlichkeit von 5 % besteht, dass die Ergebnisse durch Zufall zustande gekommen sind. Mailchimp berechnet dies automatisch. Erreiche statistische Signifikanz durch Tests mit angemessenen Stichprobengrößen und Testdauern für die von dir gewählte Metrik.

  • Wenn die Testergebnisse zu knapp ausfallen (keine statistische Signifikanz), sendet Mailchimp standardmäßig die erste Variante an die verbleibenden Abonnenten. Dieses Ergebnis ist immer noch wertvoll – es zeigt dir, dass die von dir getestete Änderung das Verhalten deiner Zielgruppe nicht wesentlich beeinflusst hat. Nutze diese Erkenntnis, um stattdessen andere, umfangreichere Änderungen zu testen. Dokumentiere „kein Unterschied“-Ergebnisse, um zu vermeiden, dass dieselben Ideen erneut getestet werden.

  • Ja. Wenn du deinen A/B-Test vorbereitest, wählst du „Manuelle Auswahl“ als dein Gewinnkriterium. Dies ermöglicht es dir, alle Metriken (Öffnen, Klicks, Einnahmen, Abbestellungen, Spam-Beschwerden) zu bewerten, bevor du entscheidest, welche Version an die verbleibenden Abonnenten gesendet werden soll. Die manuelle Auswahl ist nützlich, wenn du sekundäre Kennzahlen berücksichtigen möchtest, die über die primäre Erfolgskennzahl hinausgehen, oder wenn du geschäftliche Gründe hast, trotz ähnlicher Leistung eine Version einer anderen vorzuziehen.

  • Ja. Die A/B-Tests von Mailchimp erlauben bis zu 3 Variationen einer einzelnen Variable (A/B/n-Tests genannt). Mit multivariaten Tests kannst du mehrere Elemente gleichzeitig testen (verfügbar in Standard-Tarifen und höher). Das Testen weiterer Variationen erfordert aber größere Zielgruppengrößen, um statistische Signifikanz zu erreichen.

  • A/B-Tests sind in Essentials-Tarifen und höher verfügbar. Free-Tarife beinhalten keine A/B-Tests. Multivariate Tests (das gleichzeitige Testen mehrerer Variablen) erfordern einen Standard-Tarif oder höher. Auf der aktuellen Preisseite von Mailchimp findest du die Verfügbarkeit der einzelnen Features nach Tarifstufen.

  • Wann welche Methode angewendet werden sollte:

    Wähle A/B-Tests, wenn:

    • E-Mail-Tests sind neu für dich
    • Deine Liste hat weniger als 25.000 Abonnenten
    • Du möchtest große Änderungen testen (völlig unterschiedliche Designs, Angebote oder Nachrichten)
    • Du brauchst schnelle, klare Antworten darauf, was besser funktioniert

    Entscheide dich für multivariate Tests, wenn:

    • Du hast Erfahrung mit A/B-Tests
    • Über 25.000 Abonnenten in deiner Liste sind
    • Du mehrere Elemente optimieren und sehen möchtest, wie sie interagieren
    • Du eine bereits erfolgreiche E-Mail-Vorlage optimierst

Steigere deine Zielgruppe und deinen Umsatz

Millionen vertrauen der weltweit führenden Plattform für E-Mail-Marketing und Automatisierung. Bald kannst du das auch von dir behaupten.