itsreal.media kombiniert klassische Bildforensik, Vision-Transformer-Modelle, C2PA-Herkunftsüberprüfung, Metadatenanalyse und semantisches Schlussfolgern in einer einzigen fusionierten Entscheidungspipeline.
Kein einzelnes Signal bestimmt das Urteil. Ein trainiertes Metamodell lernt, wie jede Schicht auf der Grundlage der tatsächlichen Leistung gewichtet werden muss, und aktualisiert sich, wenn sich generative Modelle weiterentwickeln.
Erklärbarkeit: Jedes Signal wird einzeln bewertet und steht über eine API für nachgelagerte Schlussfolgerungen zur Verfügung.
Über die gesamte Testsuite unter kontrollierten Bedingungen
Realistische Bedingungen: komprimierte, in der Größe angepasste, erneut hochgeladene Bilder
Bewertung der SPRIND-Challenge, November 2024
Gewinner der Deepfake Detection Challenge. Bundesagentur für Sprunginnovation
Die Leistung hängt von der Bildquelle, den Plattformtransformationen und den Entscheidungsschwellenwerten ab.
Jedes Bild wird gleichzeitig durch alle Erkennungsschichten geleitet. Die Ergebnisse werden durch ein Metamodell zusammengeführt, das Korrelationen zwischen den Signalen lernt.
Mehrere spezialisierte Vision-Transformer-Modelle wurden zu einem Meta-Modell für die Erkennung von KI-generierten und KI-bearbeiteten Bildern zusammengeführt.
Dutzende von forensischen Signalen niedriger Intensität. Spektrale, räumliche, statistische und Kompressionsanalyse.
Objektkohärenz, Konsistenz der Beleuchtung, anatomische Plausibilität und visuelles Denken.
EXIF-Integrität, Codierungsartefakte, Software-Fingerabdrücke und C2PA-Inhaltszertifikatsüberprüfung.
Ultrahochpräzises Multi-Modell-Ensemble. Wir führen mehrere spezialisierte Erkennungsmodelle und Dutzende forensischer Signale zu einem Metamodell zusammen und liefern so eine hochmoderne Erkennung, die durch unabhängige Benchmarks validiert wurde.
Erkennt vollständig KI-generierte und KI-bearbeitete Bilder mit extrem hoher Genauigkeit. Wir kombinieren mehrere spezialisierte Erkennungsmodelle und Dutzende forensischer Signale zu einem Metamodell, einem mehrschichtigen Ensemble, das im SPRIND Deepfake Detection Challenge als das leistungsstärkste System validiert wurde.
Bundesagentur für Sprunginnovation, unabhängige Bewertung unter realen Bedingungen.
Erkennt KI-modifizierte Bereiche in ansonsten authentischen Bildern: Inpainting, Outpainting, Objektentfernung, Gesichtsaustausch und generative Füllung. Gibt eine Heatmap auf Pixelebene aus, die die Wahrscheinlichkeit einer Manipulation pro Bereich anzeigt.
Die zentrale Region weist eine hohe Manipulationswahrscheinlichkeit auf. Im Einklang mit generativem Inpainting.
Wir überprüfen die in Bildern eingebetteten Inhaltszertifikate anhand des C2PA-Standards (Coalition for Content Provenance and Authenticity). Unser System validiert die gesamte Zertifikatskette, vom Ursprung der Kamera oder Software bis zum endgültig veröffentlichten Asset.
C2PA-Berechtigungsnachweise sind kryptografisch signierte Manifeste, die mit dem Bild übertragen werden und jeden Bearbeitungs- und Exportschritt aufzeichnen. Wenn sie vorhanden sind, liefern sie das stärkstmögliche Herkunftssignal.
Validiert die gesamte Vertrauenskette vom Ursprung bis zum aktuellen Zustand.
Überprüft das Signaturzertifikat und die ausstellende Organisation.
Liest die im Manifest aufgezeichneten deklarierten Bearbeitungsaktionen.
Erkennt, ob Anmeldedaten die Neucodierung der Plattform überstanden haben
Untersucht die in jeder Bilddatei eingebetteten technischen Metadaten auf Anzeichen für synthetischen Ursprung oder Manipulationen in der Nachbearbeitung.
Verwendet visuelles Denken, um logische Unstimmigkeiten zu erkennen, die auf KI-generierte oder manipulierte Inhalte hinweisen.
Durchsucht das Internet und interne Datenbanken, um ein Bild bis zu seiner ursprünglichen Quelle zurückzuverfolgen und koordinierte Wiederverwendungen zu identifizieren.
Keine einzelne Erkennungsebene ist für sich genommen zuverlässig genug. Jedes Signal hat blinde Flecken: Die Frequenzanalyse übersieht bestimmte Diffusionsmodelle, Metadaten können entfernt werden, semantische Überprüfungen hängen von der Komplexität der Szene ab.
Unser Metamodell ist ein trainierter Klassifikator, der die Rohdaten jeder Erkennungsebene als Eingabemerkmale verwendet. Es lernt die Korrelationen zwischen den Signalen, gleicht individuelle Schwächen aus und erzeugt einen einzigen kalibrierten Konfidenzwert.
Die Fusionsgewichte werden kontinuierlich neu trainiert, sobald neue generative Modelle erscheinen. Wenn ein neuer Generator die Signallandschaft verändert, passt sich das Metamodell an, ohne dass Änderungen an einzelnen Erkennungsebenen erforderlich sind.
API-first. Modular.
Einfache HTTPS-Endpunkte. Laden Sie ein Bild hoch und erhalten Sie eine strukturierte JSON-Antwort mit Urteil, Konfidenz und Signalaufschlüsselung pro Ebene. Lässt sich in wenigen Minuten integrieren.
Setzen Sie unsere Erkennungs-Engine als Docker-Container in Ihrer eigenen Infrastruktur ein. Vollständige Kontrolle über Datenstandort, Latenz und Skalierung. Air-Gapped-Netzwerke werden unterstützt.
Vollständige Bereitstellung vor Ort mit dediziertem Support, benutzerdefiniertem Modelltraining und SLA-Garantien. Entwickelt für Unternehmen mit strengen Compliance-Anforderungen.
Beantragen Sie API-Zugang oder eine Live-Demo. Wir führen Sie anhand Ihrer eigenen Bilder durch die Pipeline.