Entwickler Jason Mayes hat ein KI-Experiment vorgestellt, mit dem es möglich ist, Personen in Echtzeit aus einer Videoübertragung zu retuschieren. Ganz perfekt ist die Technik aber noch nicht.



Den Algorithmus dazu hat Mayes auf Basis des Machine-Learning-Frameworks Tensorflow von Google entwickelt. Die KI lernt in Echtzeit und ist in der Lage, Personen aus einem Live-Bild zu entfernen. Wichtig ist: die Personen müssen sich bewegen, während die Umgebung hingegen möglichst statisch ist.

Wie das in der Praxis aussehen kann, zeigt der Entwickler in einem kurzen Videoclip. Das obere Bild zeigt die gewöhnlichen Aufnahmen seiner Webcam. Das untere Bild wurde von der KI bearbeitet. Auffällig ist, dass die Technik besser funktioniert, je weiter Mayes von der Webcam entfernt ist. Kommt er ihr zu nahe, so sind noch deutliche Fragmente zu sehen.


Bitte akzeptieren Sie YouTube-Cookies, um dieses Video abzuspielen. Wenn Sie dies akzeptieren, greifen Sie auf Inhalte von YouTube zu, einem Dienst, der von einer externen dritten Partei bereitgestellt wird.

YouTube privacy policy

Wenn Sie diesen Hinweis akzeptieren, wird Ihre Wahl gespeichert und die Seite wird aktualisiert.


Tatsächlich kümmert sich die KI aber gar nicht um die Person an sich. Stattdessen erfasst sie den Hintergrund der Szene und filtert anschließend alles heraus, was nicht dazu gehört. Je öfter die künstliche Intelligenz diesen Vorgang probt, desto besser ist am Ende auch das Ergebnis.

Laut eigener Angabe hat der Entwickler, zusätzlich zu Googles Tensorflow-Framework, nicht mehr als etwa 250 Zeilen JavaScript benötigt, um sein Experiment zu realisieren. Wer es selbst einmal ausprobieren möchte, kann es an dieser Stelle machen. Dafür muss man der Website allerdings Zugriff auf die eigene Webcam geben.

0 0 votes
Article Rating