Spaces:
Sleeping
Sleeping
| import gradio as gr | |
| from transformers import pipeline, AutoTokenizer, AutoModelForCausalLM | |
| from datasets import load_dataset | |
| import torch | |
| # 1. Загрузка датасета | |
| try: | |
| dataset = load_dataset("blinoff/ru_customer_support", split="train[:50]") | |
| examples = [d["question"] for d in dataset] | |
| except Exception as e: | |
| print(f"Ошибка загрузки датасета: {e}") | |
| examples = [ | |
| "Мой заказ #12345 не пришел", | |
| "Как оформить возврат товара?", | |
| "Не приходит SMS-код подтверждения", | |
| "Ошибка при оплате картой" | |
| ] | |
| # 2. Загрузка модели с обработкой ошибок | |
| try: | |
| model_name = "ai-forever/rugpt3small_based_on_gpt2" | |
| # Явно указываем доверенный источник | |
| tokenizer = AutoTokenizer.from_pretrained( | |
| model_name, | |
| trust_remote_code=True | |
| ) | |
| model = AutoModelForCausalLM.from_pretrained( | |
| model_name, | |
| trust_remote_code=True, | |
| torch_dtype=torch.float16, | |
| device_map="auto" | |
| ) | |
| # Создаем pipeline с правильными параметрами | |
| generator = pipeline( | |
| "text-generation", | |
| model=model, | |
| tokenizer=tokenizer, | |
| device="cuda" if torch.cuda.is_available() else "cpu" | |
| ) | |
| except Exception as e: | |
| raise RuntimeError(f"Ошибка загрузки модели: {str(e)}") | |
| # 3. Функция генерации ответа | |
| def generate_response(message, history): | |
| prompt = f"""Ты оператор поддержки. Ответь клиенту вежливо на русском. | |
| История диалога: | |
| {history} | |
| Клиент: {message} | |
| Оператор:""" | |
| try: | |
| response = generator( | |
| prompt, | |
| max_new_tokens=200, | |
| temperature=0.7, | |
| do_sample=True, | |
| top_p=0.9, | |
| repetition_penalty=1.1 | |
| ) | |
| return response[0]["generated_text"].split("Оператор:")[-1].strip() | |
| except Exception as e: | |
| return f"Ошибка генерации ответа: {str(e)}" | |
| # 4. Интерфейс Gradio | |
| with gr.Blocks(theme=gr.themes.Soft()) as demo: | |
| gr.Markdown("""<h1><center>📞 Поддержка клиентов</center></h1>""") | |
| with gr.Row(): | |
| with gr.Column(): | |
| chatbot = gr.Chatbot(height=350, label="Диалог") | |
| msg = gr.Textbox(label="Опишите проблему", placeholder="Введите ваше сообщение...") | |
| btn = gr.Button("Отправить", variant="primary") | |
| with gr.Column(): | |
| gr.Examples(examples, inputs=msg, label="Примеры обращений") | |
| gr.Markdown("**Рекомендации:**\n1. Укажите номер заказа\n2. Опишите проблему подробно") | |
| btn.click(generate_response, [msg, chatbot], [chatbot]) | |
| msg.submit(generate_response, [msg, chatbot], [chatbot]) | |
| demo.launch() | |