Ещё раз покажу вам продукты действия нейросети по оживлению одной картинки.
Первые два ролика - результат работы Kling AI.
Ещё раз покажу вам продукты действия нейросети по оживлению одной картинки.
Первые два ролика - результат работы Kling AI.
Постоянно, что-то меняется. Старые программы для скачивания начинают работать хуже или перестают работать.
Поэтому, сейчас я расскажу вам про yt-dlp. Основное неудобство - эта утилита работает из командной строки. Да ещё у вас должен быть установлен ffmpeg. У yt-dlp масса возможностей, в интернете куча подробных руководств, как действовать в разных ситуациях, я же расскажу свой простейший случай.
Мне понадобилось скачать видео с сайта numeridanse (фактически, они используют vimeo). Я скачал yt-dlp, для удобства установил её в папку 1 на диске C. Потом запустил командную строку командой cmd. Затем написал c:\1\yt-dlp.exe http:\\(адрес сайта) , утилита немного задумается и выдаст какие-то сообщения. В моем случае было предупреждение о том, что ffmpeg не установлен. Если проблема не серьезная, начнётся скачивание, утилита покажет примерный объём скачивания, процент скачанного, скорость скачивания, примерное время.
В моём случае скачалось два файла mp4: большой - видео, маленький - звук. Если бы ffmpeg был установлен, эта проблема не должна была бы возникнуть, но я решал её вручную. Звуковой mp4 я конвертировал в mp3 с помощью онлайн-конвертера. Затем добавил mp3 в mp4 с помощью avidemux (это просто), правда, на выходе получился файл mkv, это, наверное, решаемо, но меня устроило.
Некоторые рекомендуют Hitomi Downloader - это, вроде бы, графическая надстройка над yt-dlp, даже при начале работы в окошке появляется сообщение что-то типа "Загрузка yt-dlp". Что упрощает работу. Но у меня не получилось с помощью Hitomi Downloader скачать видео с Vimeo, выдавалась ошибка. С YouTube скачалось.
Очередная (и одна из лучших) нейросетей для генерации картинок и их оживления - KLING AI. Бесплатный доступ к генерации ограничен некоторым количеством токенов в день (они постоянно добавляются).
Я вам немного расскажу про то, как работает KLING AI, но это относится и к другим нейросетям.
Мне захотелось сгенерировать женщину, которая играет на гитаре.
Я ввел промпт - Tan woman with long dark hair playing guitar. three-quarter angle - и получил (один из вариантов):
Veed.io - это эдакий комплекс возможностей для обработки и монтажа видео, конечно же, с использованием нейросетей.
Конечно же, есть платная и бесплатная версии, бесплатная - с кучей ограничений.
Также, для залогиненного и незалогиненного пользователей - это как будто два разных сайта.
Незалогиненные могут проследовать на вкладку "Products", и там куча разрозненных продуктов - конвертация видео, объединение видео, обрезка видео, визуализатор музыки и т.п., больше 30 инструментов.
А залогиненным показывается вполне традиционный видеоредактор с видеодорожками.
Случайно посмотрел на Ютубе паренька, который, конечно же, продавал свои курсы по монтажу, попутно высказывая странную теорию.
Мол, сначала на YouTube были ролики с простым монтажом, потом появился Мистер Бист (MrBeast), стал делать очень динамичный (паренёк называл его "быстрый") монтаж и собирать на YouTube миллионы просмотров, в то же время на YouTube есть какая-то знаменитость, который просто включает камеру в машине и что-нибудь рассказывает, он тоже собирает миллионы просмотров. Свой монтаж паренёк называет "умеренным" - у него как бы разговорное видео, но то кадр дёрнется, то субтитры помелькают, то смайлик появится. Я бы назвал такой монтаж "раздражающим":-)
Ну и парень попытался под это подтянуть теорию, что молодёжи, привыкшей к тик-току, нравится, чтобы мелькало, а люди более старшего возраста к тик-току не привыкли, поэтому могут часами смотреть рыбалку, в которой в кадре ничего не происходит.
Мне кажется, всё проще. Монтаж зависит не от возраста аудитории, не от модных тенденций, а от содержания ролика (и от имеющегося исходного материала).
Если у вас зрелищное видео - поезд падает в пропасть, пачки денег летят с небоскрёба - тогда, несомненно, нужна съёмка с нескольких камер и динамичный монтаж, да ещё можно нарезать эффектных клипов для шортсов, рилсов и тик-токов.
Я видел ролик "Поезд попадает под обвал", так игрушечный поезд несколько минут показывали с разных ракурсов среди травинок и листочков, а сам "обвал" (в песочнице) занял считанные секунды.
А для разговорного видео динамичный, сложный монтаж излишен, ведь его будут, скорее всего, слушать. Можно оживить видео минимально необходимыми вставками и перебивками. И вырезать пару эффектных фраз для шортсов, рилсов и тик-токов.
Представляю вам очередной видеоредактор - Vrew.
Особенность Vrew в том, что его работа базируется на распознавании голоса, к сожалению, распознает он только английский, испанский, японский, корейский и китайский, поэтому для русских пользователей интересен только для общего развития.
Как и многие современные программы, Vrew имеет мобильную и десктопную версии. Рассмотрим их особенности.
Я использовал бесплатные версии, которые ограничены ежемесячным лимитом генерируемых и распознаваемых минут.
Конечно, проще.
Автоматически создаёт субтитры. У субтитров нельзя даже шрифт изменить, но можно субтитры двигать по кадру, изменять размер, цвет букв, обводки, тени, фона. Можно редактировать сами субтитры. Можно автоматически выбросить длинноты между фразами.
Вот, наверное, и все.
Программа распознает текст, и вы можете выбрасывать ненужные слова! Можно в качестве иллюстрации вставить картинку, сгенерированную нейросетью. Программа накладывает субтитры, но у нас гораздо больше возможностей для их настройки. На картинку можно ещё что-то добавить, например, AI-персонажа, который будет двигать губами согласно распознанной речи.
Также на основе исходного ролика можно автоматически создать summary (т.е. краткое содержание) с использованием видеоряда и озвучки нейросетью или хайлайты.
Отдельным разделом идёт создание роликов нейросетью. Надо написать название (или краткое описание) и сценарий ролика (я просто бросил случайную англоязычную новость). И тут я не понял, наверное, что-то нейросеть генерирует, что-то выдёргивает из банков роликов и изображений. Голос озвучания - приятный. Но итоговый результат надо просматривать. Например, в моём ролике фразы про консерваторов, радующихся на выборах в США, были проиллюстрированы какими-то бандитами в балаклавах, что явно очень сомнительное решение.
По материалам тг-канала documakers.
Одна из самых нелюбимых задач большого числа документалистов - составление бюджета фильма. Как же это сделать?
Максимально подробно на этот вопрос отвечает в своей статье A (Revised!) Introduction to Documentary Budgeting ROBERT BAHAR. Я крайне рекомендую эту статью тем, кто только начинает осваивать бюджетирование своих проектов. Здесь же приведу несколько рекомендаций из этой статьи.
Но английская статья гораздо более подробная. Также там есть файл с примерным бюджетом.
От себя добавлю, что в статье говориться только о расходной статье бюджета, но у любого бюджета есть и доходная часть. Предположите, какие источники финансирования будут у вашего проекта, и какую сумму средств вы сможете получить из этих источников (фонды, частные инвесторы, прокатные компании, краудфандинг, платформы, гранты и др.) ВАЖНО! Не забудьте и о своем вкладе: ваша техника, ваше время, ночевка у бабушки, бессонная ночь за монтажной программой - все это должно найти отражение и в доходной части бюджета, это ваши собственные инвестиции в ваш фильм.
На новогодних выходных добрался до CapCut на компьютере. Действительно, много интересного, попробовал некоторые вещи из этого ролика - всё работает, всё хорошо.
У программы есть платная версия, но и бесплатная имеет множество возможностей.
И надо учитывать, что у CapCut есть скачиваемая версия и онлайн-версия, которые заметно разнятся по возможностям. Например, нейросетевой диктор, который озвучит ваш текст, есть только в онлайн-версии. Как и остальные функции, основанные на нейросетях.