Независимо от того, насколько хорошо нейросети могут создавать дипфейки и другие формы контента, они все еще не могут имитировать полного человеческого опыта. Это подчеркивает важность помнить, что за экраном всегда стоит реальный человек, который может быть обманут или ранен.
Не ну такую нестабильность в видео пока отличить легко.
оно всегда выглядит слишком гладко и не натурально
Комментарий недоступен
По дрожащему еблету всегда видно, часто когда на край кадра ещё заходит просвечивает рил фейс
Это парень значит слева, в плохо сделаном парике...
Так то мы уже давно живем с «дипфейками», со времен появления косметики и ничего пиздецового пока не произошло.
Так что…