Anonymisierungs-KI aus Deutschland: Brighter AI wurde verkauft

Das deutsche KI-Unternehmen Brighter AI wurde aufgekauft. Bereits zum 1. April 2025 hat der dänische Softwareentwickler Milestone Systems das Start-up übernommen, wie Milestone am Montagnachmittag bekannt gab. Zur Übernahmesumme äußerten sich beide Unternehmen nicht.

Brighter AI entwickelt eine Software, die etwa Gesichter in Videoaufnahmen unkenntlich machen oder durch andere Gesichter ersetzen und so anonymisieren soll. Die Technik soll etwa in der Automobilbranche eingesetzt werden, um Kameras in Autos datenschutzkonform im Straßenverkehr zu verwenden.

Das Start-up hat momentan 24 Beschäftigte und seinen Sitz in Berlin. Brighter AI soll als eigenständige Geschäftseinheit innerhalb von Milestone weiterarbeiten. Das Produkt von Brighter AI gehörte auch zu Demos, die Bundesdigitalminister Volker Wissing Anfang des Jahres bei der Eröffnung eines KI-Zentrums in Berlin präsentiert wurden.

Auch Apple war interessiert

Vor einem Jahr gab es erste Berichte über eine Übernahme. Damals soll Apple an Brighter AI interessiert gewesen sein. "Wir waren von Anfang an ein sehr europäisches Unternehmen", sagt Brighter-AI-Gründer Marian Gläser. Europa sei die erste Region mit einer Datenschutz-Regulierung wie der DSGVO gewesen. "In Europa zu bleiben, war für unsere Arbeit superwichtig."

Laut Milestone-CEO Thomas Jensen wolle man sich "im Bereich der verantwortungsbewussten Videoüberwachung" gut aufstellen. "Aber der Anwendungsbereich für Technologien zur Verbesserung des Datenschutzes geht weit über die Videoüberwachung hinaus, und wir wollen sicherstellen, dass wir diese Chance nutzen", indem man Experten wie Brighter AI übernehme. Das auf Videoüberwachung spezialisierte Milestone Systems selbst gehört seit 2014 zum Canon-Konzern.

Milestone arbeitet gemeinsam mit Nvidia an "Projekt Hafnia", um die Herkunft von als Trainingsdaten verwendeten Videos besser nachvollziehbar zu machen. Die Technologie von Brighter AI soll Bestandteil davon werden. Besonders generative Modelle wie Runway oder Sora von OpenAI stehen immer wieder in der Kritik, weil sie unerlaubt mit urheberrechtlich geschütztem Material trainieren.

Das könnte Ihnen auch gefallen