File size: 8,830 Bytes
e3f42ae
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
import os
import requests
import yfinance as yf
from bs4 import BeautifulSoup
from tavily_agent import tavily_search_with_date
from langchain_core.tools import Tool
from langgraph.prebuilt import create_react_agent
from langchain.chat_models import init_chat_model


# Проверка (временно добавь это!)
#print("NEWS_API_KEY:", os.getenv("NEWS_API_KEY"))
#print("ALPHA_VANTAGE_API_KEY:", os.getenv("ALPHA_VANTAGE_API_KEY"))

# 🤖 Web-Agent mit Gemini 2.0 Flash
gemini_model = init_chat_model("gemini-2.0-flash", model_provider="google_genai")

COMPANIES = {
    "apple": "AAPL",
    "microsoft": "MSFT",
    "google": "GOOG",
    "nvidia": "NVDA",
    "meta": "META"
}

TRUSTED_SOURCES = {
    "cnbc", "bloomberg", "reuters", "yahoo", "financial times", "marketwatch"
}

SCRAPING_SOURCES = {
    "CNBC": {
        "base_url": "https://www.cnbc.com/search/?query={query}",
        "item_selector": "a.Card-title",
        "title_selector": "a.Card-title",
        "link_prefix": ""
    },
    "Yahoo": {
        "base_url": "https://finance.yahoo.com/quote/{query}/news",
        "item_selector": "li.js-stream-content h3 a",
        "title_selector": "li.js-stream-content h3 a",
        "link_prefix": "https://finance.yahoo.com"
    },
    "MarketWatch": {
        "base_url": "https://www.marketwatch.com/search?q={query}",
        "item_selector": "h3.article__headline a",
        "title_selector": "h3.article__headline a",
        "link_prefix": ""
    }
}

def generic_scrape(source_name, config, query, max_articles=3):
    headers = {"User-Agent": "Mozilla/5.0"}
    url = config["base_url"].format(query=query)
    print(f"Scraping URL: {url}")  # Debug-Ausgabe
    try:
        response = requests.get(url, headers=headers)
        soup = BeautifulSoup(response.text, "html.parser")
        items = soup.select(config["item_selector"])[:max_articles]
        results = []
        print(f"Anzahl gefundener Artikel: {len(items)}")  # Debug-Ausgabe
        for item in items:
            tag = item.select_one(config["title_selector"])
            if tag and tag.text.strip():
                title = tag.text.strip()
                print(f"Scraped title: {title}")  # Debug-Ausgabe
                link = tag.get("href", "#")
                full_link = link if link.startswith("http") else config["link_prefix"] + link
                results.append((None, f"[{source_name}] {title} ({full_link})"))

        return results if results else [(None, f"[{source_name}] Keine Ergebnisse.")]
    
    except Exception as e:
        return [(None, f"Fehler beim Scraping von {source_name}: {e}")]

def scrape_all_sources(query, max_articles=3):
    all_results = []
    for name, config in SCRAPING_SOURCES.items():
        all_results += generic_scrape(name, config, query, max_articles)
    return all_results

""" def is_news_related_to_company(article, company_name, ticker):

    title = article.get("title", "").lower()

    description = article.get("description", "").lower()

    content = title + " " + description

    source = article.get("source", {}).get("name", "").lower()



    # 🔍 Простое совпадение

    basic_match = company_name.lower() in content or ticker.lower() in content 



    # 🔎 Проверка доверенного источника

    trusted = any(src in source for src in TRUSTED_SOURCES)

    

    return basic_match  and trusted """

# 📰 Funktion: Abrufen aktueller Nachrichten über NewsAPI
def get_latest_news(query,ticker,max_articles=5):
    api_key = os.getenv("NEWS_API_KEY")
    if not api_key:
        return ["NEWS_API_KEY fehlt."]
    
    url = "https://newsapi.org/v2/everything"
    params = {
        "q": query, 
        "apiKey": api_key, 
        "language": "en",
        "sortBy": "publishedAt"
        }
    try:
        response = requests.get(url, params=params)
        articles = response.json().get("articles", [])
        results = []
        for a in articles[:max_articles]:
            title = a.get("title", "")
            description = a.get("description", "")
            source = a.get("source", {}).get("name", "")
            url = a.get("url", "")
            #if  is_news_related_to_company(a, query, ticker):
            results.append(f"- {title}\n {description}\n ({source})\n {url}\n")
        return results if results else ["Keine relevanten Artikel gefunden."]    
    except Exception as e:
        return [f"Fehler bei NewsAPI: {e}"]

# 💹 Funktion: Aktueller Aktienkurs über Yahoo Finance (yfinance)
def get_stock_price_yahoo(ticker):
    try:
        ticker_data = yf.Ticker(ticker)
        hist = ticker_data.history(period="5d")
        if hist.empty:
            return f"Keine Daten für {ticker}."
        last = hist.iloc[-1]
        return f"Schlusskurs am {last.name.date()}: {round(last['Close'], 2)} USD"
    except Exception as e:
        return f"Yahoo Finance Fehler: {e}"

# 📊 Funktion: Abrufen von Zeitreihendaten über Alpha Vantage API    
def get_alpha_vantage_data(symbol):
    api_key = os.getenv("ALPHA_VANTAGE_API_KEY")
    if not api_key:
        return "ALPHA_VANTAGE_API_KEY fehlt."
    url = "https://www.alphavantage.co/query"
    params = {"function": "TIME_SERIES_DAILY", "symbol": symbol, "apikey": api_key}
    try:
        response = requests.get(url, params=params)
        data = response.json().get("Time Series (Daily)", {})
        if not data:
            return "Keine Daten von Alpha Vantage."
        latest_date = sorted(data.keys())[-1]
        close_price = data[latest_date]["4. close"]
        return f"{symbol} (Alpha Vantage) Schlusskurs am {latest_date}: {close_price} USD"
    except Exception as e:
        return f"Alpha Vantage Fehler: {e}"




# 🧠 Hauptfunktion des Web-Agenten
def handle_company_news(query: str) -> str:
    print("Agent is runing")  # Debug-Ausgabe
    lines = []
    for company_name, company_ticker in COMPANIES.items():     
       if company_name.lower() in query.lower():
                print(f"📦 Anfrage erkannt für: {company_name} ({company_ticker})")
                name = company_name
                ticker= company_ticker;   
                break
    # if not ticker:
    #     firms = ", ".join(c.capitalize() for c in COMPANIES.keys())
    #     lines.append(f"❌ Unbekannte Firma. Verfügbare Firmen: {firms}")

      
    lines.append(f"📊 Daten für {name.capitalize()} ({ticker})")

    # 🔎 NewsAPI
    lines.append("\n🔎 Aktuelle Nachrichten via NewsAPI:")
    lines.extend(get_latest_news(name, ticker))

    # 🌍 Tavily
    lines.append("\n🌍 Tavily (mit Datum):")
    #lines.extend(tavily_search_with_date(f"{name} stock news"))
    lines.extend(tavily_search_with_date(query))

    # 💰 Yahoo Finance
    lines.append("\n💰 Yahoo Finance:")
    lines.append(get_stock_price_yahoo(ticker))

    # 📈 Alpha Vantage
    lines.append("\n📈 Alpha Vantage:")
    lines.append(get_alpha_vantage_data(ticker))
    print("\n".join(lines))
    return "\n".join(lines)


# 🛠 Tool für den Agent
web_news_tool = Tool(
    name="get_company_news",
    func=handle_company_news,
    description="Verwende dieses Tool, um aktuelle Nachrichten über ein Unternehmen zu erhalten. Gib den Firmennamen oder eine Frage ein."
)


web_agent = create_react_agent(
    model=gemini_model,  # ✅ deine konkrete Modellwahl
    tools=[web_news_tool],
    name="web_agent",
    prompt=(
        # "Du bist ein spezialisierter Agent für die Web-Recherche zu Unternehmen und financielle information suchen\n"
        # "Deine Aufgabe ist es, aktuelle Nachrichten oder Informationen zu liefern. Also stock price and financial unformation and data suchen und liefern\n"
        # "Du gibst Schlusskurse und stockprices zurück.\n"
        # "Verwende ausschließlich das Tool 'get_company_news'.\n"
        # "Antworte  auf Fragen zu aktuellen Ereignissen, Unternehmensnachrichten oder Entwicklungen or stock prises, Schlusskurs."
        "Du bist ein spezialisierter Agent für die Web-Recherche zu Unternehmen und finanzielle Informationen.\n"  
        "Deine Aufgabe ist es, aktuelle Nachrichten sowie Finanzinformationen wie Aktienkurse und Schlusskurse zu liefern.\n"  
        "Verwende dazu  das Tool 'get_company_news' sowohl für Nachrichten als auch für Finanzdaten wie Aktienpreise.\n"  
        "Du gibst sowohl aktuelle Nachrichten als auch Aktienkurse zurück, einschließlich der Schlusskurse. \n" 
        "Antworte auf Fragen zu aktuellen Ereignissen, Unternehmensnachrichten oder Entwicklungen sowie zu Aktienpreisen und finanziellen Daten.\n"
    )
)