Entwickler Jason Mayes hat ein KI-Experiment vorgestellt, mit dem es möglich ist, Personen in Echtzeit aus einer Videoübertragung zu retuschieren. Ganz perfekt ist die Technik aber noch nicht.
Den Algorithmus dazu hat Mayes auf Basis des Machine-Learning-Frameworks Tensorflow von Google entwickelt. Die KI lernt in Echtzeit und ist in der Lage, Personen aus einem Live-Bild zu entfernen. Wichtig ist: die Personen müssen sich bewegen, während die Umgebung hingegen möglichst statisch ist.
Wie das in der Praxis aussehen kann, zeigt der Entwickler in einem kurzen Videoclip. Das obere Bild zeigt die gewöhnlichen Aufnahmen seiner Webcam. Das untere Bild wurde von der KI bearbeitet. Auffällig ist, dass die Technik besser funktioniert, je weiter Mayes von der Webcam entfernt ist. Kommt er ihr zu nahe, so sind noch deutliche Fragmente zu sehen.
Tatsächlich kümmert sich die KI aber gar nicht um die Person an sich. Stattdessen erfasst sie den Hintergrund der Szene und filtert anschließend alles heraus, was nicht dazu gehört. Je öfter die künstliche Intelligenz diesen Vorgang probt, desto besser ist am Ende auch das Ergebnis.
Laut eigener Angabe hat der Entwickler, zusätzlich zu Googles Tensorflow-Framework, nicht mehr als etwa 250 Zeilen JavaScript benötigt, um sein Experiment zu realisieren. Wer es selbst einmal ausprobieren möchte, kann es an dieser Stelle machen. Dafür muss man der Website allerdings Zugriff auf die eigene Webcam geben.