Многие хотят понять конкретный процесс, я поделюсь им.
Первое — подготовка материалов. Я начал с мемов, использовал AI-инструмент для редактирования изображений, чтобы заменить персонажей, ориентируясь на референсное изображение.
Далее — этап генерации видео. Импортировал референсное видео и новую заменённую графику в инструмент управления движением, система могла по движению исходного видео заставить новую графику следовать за ним. Так можно получить результат.
Весь процесс на самом деле несложный — главное, чтобы обработка изображений была аккуратной, а параметры видеотулов — разумными. Заинтересованные могут попробовать следовать этой логике.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
15 Лайков
Награда
15
5
Репост
Поделиться
комментарий
0/400
CryptoSurvivor
· 01-05 20:59
Ха, это ведь как раз про deepfake, когда параметры настроены правильно, действительно получается качественно
Посмотреть ОригиналОтветить0
BetterLuckyThanSmart
· 01-05 07:53
Работа не так сложна, как кажется, всё сводится к настройке параметров
Посмотреть ОригиналОтветить0
DataOnlooker
· 01-05 07:52
Черт возьми, разве это не deepfake с заменой лица? Настройка параметров должна быть разумной. Говоришь легко, но чтобы избежать ошибок, нужно пройти 100 раз и только тогда получится что-то не вызывающее диссонанс.
Посмотреть ОригиналОтветить0
ProofOfNothing
· 01-05 07:30
Парень, этот процесс выглядит просто, но на практике, если неправильно настроить параметры, сразу всё сломается.
Посмотреть ОригиналОтветить0
MetaLord420
· 01-05 07:29
Проще говоря, это смена лица + захват движений. Звучит просто, но если параметры настроить неправильно, всё будет напрасно.
Многие хотят понять конкретный процесс, я поделюсь им.
Первое — подготовка материалов. Я начал с мемов, использовал AI-инструмент для редактирования изображений, чтобы заменить персонажей, ориентируясь на референсное изображение.
Далее — этап генерации видео. Импортировал референсное видео и новую заменённую графику в инструмент управления движением, система могла по движению исходного видео заставить новую графику следовать за ним. Так можно получить результат.
Весь процесс на самом деле несложный — главное, чтобы обработка изображений была аккуратной, а параметры видеотулов — разумными. Заинтересованные могут попробовать следовать этой логике.