AASIST

Die KI hinter der Deepfake-Erkennung

Stimmen können heute lügen. Mit moderner Sprach-KI lassen sich täuschend echte Audioaufnahmen erzeugen, in denen Menschen Dinge sagen, die sie nie gesagt haben. Diese sogenannten Deepfake-Stimmen sind längst mehr als ein technisches Kuriosum – sie sind ein reales Risiko für Justiz, Medien und Gesellschaft.

Die Forschung hat darauf reagiert. Mit AASIST steht erstmals ein KI-Modell zur Verfügung, das Deepfakes mit forensischer Präzision entlarvt – und mit einem Equal Error Rate (EER) von <1% einen internationalen Benchmark gesetzt

Weiterführende Links: GitHub, Cornell University

I. Was AASIST ist:

AASIST steht für Anti-Spoofing Synthetic Speech System.
„Anti-Spoofing“ bedeutet, Täuschungen zu erkennen, also Fälschungen, die sich als echt ausgeben.
Das Modell wurde von Forschern der Korea University und des ETRI-Instituts entwickelt, um gefälschte Sprachaufnahmen automatisch zu identifizieren – unabhängig davon, mit welcher KI sie erzeugt wurden. Im Kern vergleicht AASIST zwei Dinge:

  • Wie klingt die Stimme technisch?
  • Wie verhält sie sich über die Zeit?

Denn auch wenn eine Deepfake-Stimme für das menschliche Ohr echt wirkt, hinterlässt sie digitale Spuren, die sich messen lassen.

II. Wie AASIST Deepfakes erkennt

1. Analyse des Klangs (Mel-Spektrogramm)

ASIST wandelt jede Tonaufnahme in ein sogenanntes Mel-Spektrogramm um – eine visuelle Darstellung, die zeigt, welche Frequenzen im Laufe der Zeit auftreten.
Die Mel-Skala ahmt dabei das menschliche Gehör nach.
Das Modell „sieht“ sozusagen die Stimme und erkennt dabei Muster, die für KI-Stimmen typisch sind:

  • zu gleichmäßige Frequenzverläufe, 
  • fehlendes Atemrauschen, 
  • mikroskopisch exakte Wiederholungen.

Diese kleinen Abweichungen sind das, was AASIST sucht.

2.  Muster-Erkennung durch ein Graph-Netzwerkeading

AASIST verwendet ein Graph Attention Network (GAT) – ein neuronales Netz, das Beziehungen zwischen Klangpunkten analysiert.
Statt nur einzelne Töne zu prüfen, untersucht es, wie sich Klangsegmente gegenseitig beeinflussen.

Eine echte Stimme zeigt fließende Übergänge.
Eine synthetische Stimme dagegen springt unnatürlich – und genau das erkennt das Modell.

3. Bewertung der Echtheit

Am Ende liefert AASIST eine Wahrscheinlichkeit:

  • bonafide = wahrscheinlich echt,
  • spoof = vermutlich gefälscht

Dabei wird der sogenannte Equal Error Rate (EER) berechnet – der Punkt, an dem das System gleich viele echte wie gefälschte Aufnahmen falsch bewertet.
Ein EER von 0,5 % bedeutet: Nur eine halbe Aufnahme von hundert wird fehlerhaft klassifiziert.
Zum Vergleich: Menschen erreichen bei derselben Aufgabe Fehlerquoten über 15 %.

Dieser Wert gilt als Benchmark – ein Referenzpunkt, an dem sich alle späteren Systeme messen müssen.orem ipsum dolor sit amet, consectetur adipiscing elit. Nulla euismod condimentum felis vitae efficitur. Sed vel dictum quam, at blandit leo.

III. Warum AASIST so wichtig ist

Deepfakes bedrohen die digitale Glaubwürdigkeit.
Ein einziger gefälschter Mitschnitt kann eine Karriere ruinieren, Prozesse beeinflussen oder politische Krisen auslösen.

AASIST liefert hier etwas, das bisher fehlte: Objektivität.
Die KI bewertet keine Inhalte, sondern akustische Echtheit. Sie hört nicht was jemand sagt, sondern wie echt es klingt.

Das macht sie zu einem Werkzeug, das über technische Disziplinen hinaus Bedeutung hat:

  • Für Ermittler: Vorprüfung von Sprachnachrichten oder anonymen Anrufen. AASIST erkennt synthetische Spuren, noch bevor ein Labor eingreift.
  • Für Juristen: Unterstützung bei der Beweisprüfung. Eine objektive KI-Bewertung kann die Grundlage für Gutachten oder Beweiszulassung bilden.
  • Für Journalistinnen und Journalisten: Verifizierung von Audioquellen. Eine schnelle KI-Analyse schützt vor dem unabsichtlichen Verbreiten gefälschter Interviews oder Zitateorem ipsum dolor sit amet, consectetur adipiscing elit. Nulla euismod condimentum felis vitae efficitur. Sed vel dictum quam, at blandit leo.

IV. VCforensic Lite – AASIST in der Praxis

Damit AASIST nicht nur in Forschungslaboren funktioniert, wurde das Modell in das forensische Analysesystem VCforensic Lite integriert.
Dieses System wird von Ermittlern, Kanzleien und Redaktionen eingesetzt, um Sprachaufnahmen offline, also ohne Internetverbindung, auf Echtheit zu prüfen.

Man kann sich VCforensic Lite als das „Labor“ vorstellen, das AASIST als „Gehirn“ nutzt.

Offline, sicher, nachvollziehbar

VCforensic Lite läuft vollständig lokal – keine Cloud, keine Datenübertragung.
Jede Analyse wird mit SHA-256-Hashwerten gesichert, sodass jede Datei nachweisbar unverändert bleibt.
Das ist entscheidend für den Einsatz in Polizei und Justiz.

AASIST als Herzstück

Im Inneren arbeitet VCforensic Lite  mit dem internen Regelwerk v3.1 und nutzt dieselbe Deepfake-KI mit dem 0,5 %-EER-Benchmark.
VCforensic Lite verwendet darauf die folgende Klassifikation:

  1. Bonafide hoch – sehr wahrscheinlich echt,
  2. Bonafide mittel – wahrscheinlich echt, Nachprüfung empfohlen,
  3. Unsicher – keine klare Bewertung möglich,
  4. Spoof – manipuliert oder synthetisch.

Jede Entscheidung wird im Bericht mit einem Confidence-Score (0–1) und Schwellenwerten dokumentiert, die aus dem AASIST-Training stammen. So bleibt der Prozess transparent und reproduzierbar.

Ergänzende Analysen

Neben der KI-Bewertung prüft VCforensic Lite über 30 weitere akustische Kennwerte:

  • HNR (Harmonic-to-Noise Ratio): misst, wie „rein“ oder verrauscht eine Stimme klingt.
  • SNR (Signal-to-Noise Ratio): Verhältnis von Nutzsignal zu Störgeräuschen.
  • CPP (Cepstral Peak Prominence): bewertet die Klarheit und Natürlichkeit der Stimme.
  • Formanten, Jitter, Shimmer: zeigen, wie gleichmäßig Artikulation und Lautstärke verlaufen.

Daraus entsteht ein Quality Score, der anzeigt, ob die Aufnahme technisch ausreichend gut ist, um ggf. als Beweismittel verwendet zu werden.

Automatisierte Bewertung

Am Ende kombiniert VCforensic Lite alle Informationen zu einem strukturierten Bericht:

  • Echtheitsbewertung durch AASIST,
  • Qualitätsanalyse,
  • Handlungsempfehlung (z. B. „Laborprüfung empfohlen“), 
  • rechtssichere Hash-Verifikation.

Alles in einem HTML-Report, der auch für juristische Laien verständlich ist.

V. Der wissenschaftliche Maßstab: EER < 1%

Warum ist dieser Wert so bedeutend?
Der Equal Error Rate (EER) zeigt, wie ausgewogen ein System zwischen Fehlalarm und Fehldetektion unterscheidet.

Ein zu strenges System würde echte Stimmen fälschlich als Deepfakes einstufen – gefährlich für Ermittlungen.
Ein zu lockeres System würde Deepfakes übersehen – riskant für die Glaubwürdigkeit.
AASIST hält die Balance.

Mit einem EER von 0,5 % arbeitet es auf dem Niveau professioneller forensischer Gutachter, aber hundertmal schneller.
In Kombination mit VCforensic Lite wird diese Präzision praxistauglich – schnell, lokal, nachvollziehbar.

VI. Fazit

AASIST ist der neue Standard in der akustischen Beweissicherung.
Es erkennt Deepfake-Stimmen mit einer Genauigkeit, die bisher nur spezialisierten Laboren vorbehalten war.
In VCforensic Lite wird dieses Know-how erstmals direkt nutzbar – für Ermittler, Anwälte und Journalisten, die täglich Entscheidungen über Audioquellen treffen müssen.

Die Stärke liegt in der Verbindung:

  • AASIST liefert die wissenschaftlich geprüfte Intelligenz.
  • VCforensic Lite übersetzt sie in praxisnahe, sichere Ergebnisse.

So entsteht ein neues Fundament für digitale Vertrauenswürdigkeit:
Eine Stimme, die AASIST bestanden hat, gilt nicht nur als gehört – sondern als echt.

Wir benötigen Ihre Zustimmung zum Laden der Übersetzungen

Wir nutzen einen Drittanbieter-Service, um den Inhalt der Website zu übersetzen, der möglicherweise Daten über Ihre Aktivitäten sammelt. Bitte überprüfen Sie die Details in der Datenschutzerklärung und akzeptieren Sie den Dienst, um die Übersetzungen zu sehen.