|
|
--- |
|
|
task_categories: |
|
|
- text-to-video |
|
|
language: |
|
|
- en |
|
|
tags: |
|
|
- art |
|
|
size_categories: |
|
|
- n<1K |
|
|
--- |
|
|
|
|
|
# 🔵 ZackDFilms / YT Shorts |
|
|
## Script Used to create this: |
|
|
```python |
|
|
import os |
|
|
import re |
|
|
import json |
|
|
from pathlib import Path |
|
|
from typing import Optional, Dict, Any, List |
|
|
|
|
|
import yt_dlp |
|
|
|
|
|
|
|
|
CHANNEL_SHORTS_URL = "https://www.youtube.com/@zackdfilms/shorts" |
|
|
|
|
|
BASE_DIR = Path(r"C:\Users\User\Desktop\zackdfilms") |
|
|
SHORTS_DIR = BASE_DIR / "shorts" |
|
|
DATASET_PATH = BASE_DIR / "data.json" |
|
|
|
|
|
TARGET_COUNT = 576 |
|
|
|
|
|
|
|
|
def round_to_thousands(n: Optional[int]) -> Optional[int]: |
|
|
if n is None: |
|
|
return None |
|
|
# "с точностью до тысяч" -> округление до ближайшей 1000 |
|
|
return int(round(n / 1000.0) * 1000) |
|
|
|
|
|
|
|
|
_vtt_timestamp = re.compile(r"^\d{2}:\d{2}:\d{2}\.\d{3}\s-->\s\d{2}:\d{2}:\d{2}\.\d{3}") |
|
|
_vtt_header = re.compile(r"^WEBVTT") |
|
|
|
|
|
|
|
|
def vtt_to_text(vtt_content: str) -> str: |
|
|
""" |
|
|
Простой VTT -> текст: |
|
|
- убирает заголовок/таймкоды/служебные строки |
|
|
- чистит теги <...> |
|
|
- склеивает в одну строку |
|
|
- убирает подряд идущие дубликаты |
|
|
""" |
|
|
lines = [] |
|
|
for raw in vtt_content.splitlines(): |
|
|
s = raw.strip() |
|
|
if not s: |
|
|
continue |
|
|
if _vtt_header.match(s): |
|
|
continue |
|
|
if _vtt_timestamp.match(s): |
|
|
continue |
|
|
if s.isdigit(): # номер cue |
|
|
continue |
|
|
if s.startswith("NOTE") or s.startswith("STYLE") or s.startswith("REGION"): |
|
|
continue |
|
|
s = re.sub(r"<[^>]+>", "", s) # убрать теги |
|
|
s = s.replace("\u200b", "").strip() |
|
|
if s: |
|
|
lines.append(s) |
|
|
|
|
|
# убрать подряд повторяющиеся строки |
|
|
dedup = [] |
|
|
prev = None |
|
|
for s in lines: |
|
|
if s != prev: |
|
|
dedup.append(s) |
|
|
prev = s |
|
|
|
|
|
text = " ".join(dedup) |
|
|
text = re.sub(r"\s+", " ", text).strip() |
|
|
return text |
|
|
|
|
|
|
|
|
def read_text_file(path: Path) -> str: |
|
|
# VTT обычно UTF-8, но бывает с BOM |
|
|
return path.read_text(encoding="utf-8-sig", errors="replace") |
|
|
|
|
|
|
|
|
def pick_subtitle_path(info: Dict[str, Any], expected_basename: str, out_dir: Path) -> Optional[Path]: |
|
|
""" |
|
|
yt-dlp создаст файл субтитров рядом с видео по шаблону outtmpl. |
|
|
Мы используем отдельный outtmpl под каждый ролик, поэтому ожидаем: |
|
|
- <basename>.en.vtt |
|
|
- <basename>.en-US.vtt (и т.п.) |
|
|
- иногда .en.auto.vtt / похожие варианты |
|
|
""" |
|
|
candidates = list(out_dir.glob(f"{expected_basename}.en*.vtt")) |
|
|
if not candidates: |
|
|
return None |
|
|
# предпочтение: не auto (если есть) |
|
|
non_auto = [p for p in candidates if ".auto." not in p.name] |
|
|
return non_auto[0] if non_auto else candidates[0] |
|
|
|
|
|
|
|
|
def extract_playlist_entries(url: str, limit: int) -> List[Dict[str, Any]]: |
|
|
ydl_opts = { |
|
|
"quiet": True, |
|
|
"no_warnings": True, |
|
|
"extract_flat": "in_playlist", |
|
|
"playlistend": limit, |
|
|
# для стабильности |
|
|
"noplaylist": False, |
|
|
} |
|
|
with yt_dlp.YoutubeDL(ydl_opts) as ydl: |
|
|
info = ydl.extract_info(url, download=False) |
|
|
entries = info.get("entries") or [] |
|
|
return [e for e in entries if e] # убрать None |
|
|
|
|
|
|
|
|
def download_one(video_url: str, out_mp4: Path) -> Dict[str, Any]: |
|
|
""" |
|
|
Скачивает видео+аудио (до 720p) и субтитры (en, обычные или авто). |
|
|
Возвращает info_dict (с метаданными). |
|
|
""" |
|
|
out_base = out_mp4.with_suffix("") # без расширения |
|
|
outtmpl = str(out_base) + ".%(ext)s" |
|
|
|
|
|
ydl_opts = { |
|
|
"quiet": True, |
|
|
"no_warnings": True, |
|
|
|
|
|
# видео до 720p + звук, с попыткой mp4/m4a |
|
|
"format": "bestvideo[height<=720][ext=mp4]+bestaudio[ext=m4a]/best[height<=720][ext=mp4]/best[height<=720]", |
|
|
|
|
|
# принудительно mp4 на выходе (если возможно через remux) |
|
|
"merge_output_format": "mp4", |
|
|
"outtmpl": outtmpl, |
|
|
|
|
|
# субтитры: сначала обычные, иначе авто |
|
|
"writesubtitles": True, |
|
|
"writeautomaticsub": True, |
|
|
"subtitleslangs": ["en", "en.*"], |
|
|
"subtitlesformat": "vtt", |
|
|
|
|
|
# меньше мусора |
|
|
"postprocessors": [ |
|
|
{"key": "FFmpegVideoRemuxer", "preferedformat": "mp4"}, |
|
|
], |
|
|
|
|
|
# сеть/ретраи |
|
|
"retries": 10, |
|
|
"fragment_retries": 10, |
|
|
"concurrent_fragment_downloads": 4, |
|
|
|
|
|
# иногда полезно: |
|
|
# "cookiesfrombrowser": ("chrome",), # если нужно (авторизация/ограничения) |
|
|
} |
|
|
|
|
|
with yt_dlp.YoutubeDL(ydl_opts) as ydl: |
|
|
info = ydl.extract_info(video_url, download=True) |
|
|
return info |
|
|
|
|
|
|
|
|
def main(): |
|
|
BASE_DIR.mkdir(parents=True, exist_ok=True) |
|
|
SHORTS_DIR.mkdir(parents=True, exist_ok=True) |
|
|
|
|
|
entries = extract_playlist_entries(CHANNEL_SHORTS_URL, TARGET_COUNT) |
|
|
if not entries: |
|
|
raise RuntimeError("Не удалось получить список Shorts. Проверь URL или доступность YouTube.") |
|
|
|
|
|
dataset = [] |
|
|
downloaded = 0 |
|
|
seq = 1 |
|
|
|
|
|
for e in entries: |
|
|
if downloaded >= TARGET_COUNT: |
|
|
break |
|
|
|
|
|
# e может быть с id и url |
|
|
video_id = e.get("id") |
|
|
video_url = e.get("url") or (f"https://www.youtube.com/watch?v={video_id}" if video_id else None) |
|
|
if not video_url: |
|
|
continue |
|
|
|
|
|
filename = f"{seq:04d}.mp4" |
|
|
out_mp4 = SHORTS_DIR / filename |
|
|
|
|
|
# если уже есть файл — пропускаем и всё равно пишем запись (по возможности) |
|
|
if out_mp4.exists() and out_mp4.stat().st_size > 0: |
|
|
# метаданные в этом случае не знаем; лучше всё же извлечь info без скачивания |
|
|
with yt_dlp.YoutubeDL({"quiet": True, "no_warnings": True}) as ydl: |
|
|
info = ydl.extract_info(video_url, download=False) |
|
|
else: |
|
|
try: |
|
|
info = download_one(video_url, out_mp4) |
|
|
except Exception as ex: |
|
|
print(f"[SKIP] Ошибка скачивания {video_url}: {ex}") |
|
|
continue |
|
|
|
|
|
# subtitles: ищем созданный vtt рядом с видео и парсим |
|
|
base_name = f"{seq:04d}" |
|
|
sub_path = pick_subtitle_path(info, base_name, SHORTS_DIR) |
|
|
subtitles_text = "" |
|
|
if sub_path and sub_path.exists(): |
|
|
try: |
|
|
subtitles_text = vtt_to_text(read_text_file(sub_path)) |
|
|
except Exception: |
|
|
subtitles_text = "" |
|
|
# можно удалить .vtt, если не нужен |
|
|
try: |
|
|
sub_path.unlink(missing_ok=True) |
|
|
except Exception: |
|
|
pass |
|
|
|
|
|
view_count = info.get("view_count") |
|
|
views_rounded = round_to_thousands(view_count if isinstance(view_count, int) else None) |
|
|
|
|
|
dataset.append({ |
|
|
"subtitles": subtitles_text, |
|
|
"filepath": f"shorts/{filename}", |
|
|
"views": views_rounded, |
|
|
}) |
|
|
|
|
|
downloaded += 1 |
|
|
seq += 1 |
|
|
|
|
|
print(f"[OK] {downloaded}/{TARGET_COUNT} -> {filename}") |
|
|
|
|
|
DATASET_PATH.write_text(json.dumps(dataset, ensure_ascii=False, indent=2), encoding="utf-8") |
|
|
print(f"\nГотово. Скачано: {downloaded}. Dataset: {DATASET_PATH}") |
|
|
|
|
|
|
|
|
if __name__ == "__main__": |
|
|
main() |
|
|
``` |
|
|
|