huggingartists/tanzy-minus
Text Generation • Updated • 7
text stringclasses 5
values |
|---|
У ночного огня
Под огромной луной
Темный лес укрывал
Нас зеленой листвой
Я тебя целовал у ночного огня
Я тебе подарил
Половинку себя
Свет далекой звезды
Песни птиц до утра
Ты смотрела в глаза мои, шептала слова
Ты не верила мне, но любила меня
Я оставил с тобой
Половинку себя
То, что было, забыто
То, что было, прошло
Т... |
Я шагаю по проспекту
По ночному городу
Я иду потому что у меня есть ноги
Я умею ходить и поэтому иду
Иду навстречу цветным витринам
Мимо пролетают дорогие лимузины
В них женщины проносятся с горящими глазами
Холодными сердцами, золотыми волосами
Город-сказка, город-мечта
Попадая в его сети пропадаешь навсегда
Глотая во... |
Твоего лица глаза, твоего лица рот
Не забуду никогда, даже если умрет
Даже если умрет мировой океан
И не рыбы вместо рыб будут плавать там
И не рыбы вместо рыб, и не люди вместо нас
Город был, остался дым
Город просто погас и остался лишь он
Запах тела твоего, тела твоего звон
Цветут цветы, не я, не ты, уже не можем их... |
О, Пал Иваныч, привет
Мой самый лучший в мире дед
Я очень по тебе скучал
Все эти тридцать девять лет
Послушай, дед
Послушай, дед
Послушай, дед
Я расскажу
Весной восемьдесят второго
Осталась бабушка одна
Она у нас тогда гостила
Ох, как она себя кляла
Зачем оставила я Павла
Зачем поверила ему
Была бы с ним, была бы рядом... |
Я стою в темном углу
Я не знаю, что случилось со мной
Так много мужчин
И все хотят потанцевать с тобой
Разреши мне проводить тебя домой
Разреши мне посидеть с тобой на кухне
Разреши мне заглянуть тебе в глаза
Возьми меня с собой в этот рай
Ты смотришь мимо меня
И от этого я сам не свой
Я боюсь улыбнуться тебе
Но позвол... |
The Lyrics dataset parsed from Genius. This dataset is designed to generate lyrics with HuggingArtists. Model is available here.
en
How to load this dataset directly with the datasets library:
from datasets import load_dataset
dataset = load_dataset("huggingartists/tanzy-minus")
An example of 'train' looks as follows.
This example was too long and was cropped:
{
"text": "Look, I was gonna go easy on you\nNot to hurt your feelings\nBut I'm only going to get this one chance\nSomething's wrong, I can feel it..."
}
The data fields are the same among all splits.
text: a string feature.| train | validation | test |
|---|---|---|
| 5 | - | - |
'Train' can be easily divided into 'train' & 'validation' & 'test' with few lines of code:
from datasets import load_dataset, Dataset, DatasetDict
import numpy as np
datasets = load_dataset("huggingartists/tanzy-minus")
train_percentage = 0.9
validation_percentage = 0.07
test_percentage = 0.03
train, validation, test = np.split(datasets['train']['text'], [int(len(datasets['train']['text'])*train_percentage), int(len(datasets['train']['text'])*(train_percentage + validation_percentage))])
datasets = DatasetDict(
{
'train': Dataset.from_dict({'text': list(train)}),
'validation': Dataset.from_dict({'text': list(validation)}),
'test': Dataset.from_dict({'text': list(test)})
}
)
@InProceedings{huggingartists,
author={Aleksey Korshuk}
year=2021
}
Built by Aleksey Korshuk
For more details, visit the project repository.