import gradio as gr import requests from bs4 import BeautifulSoup from urllib.parse import urljoin def parse_links_and_content(ort): base_url = "https://vereine-in-deutschland.net" all_links = [] # Konstruiere die vollständige URL initial_url = f"{base_url}/vereine/Bayern/{ort}/p/1" try: # Senden der Anfrage an die initiale URL response = requests.get(initial_url) response.raise_for_status() # Überprüfen, ob die Anfrage erfolgreich war # Parse the HTML content using BeautifulSoup soup = BeautifulSoup(response.content, 'html.parser') # Ermittle die letzte Seite link_element = soup.select_one('li.page-item:nth-child(8) > a:nth-child(1)') if link_element and 'href' in link_element.attrs: href = link_element['href'] # Extrahiere die letzten beiden Zeichen der URL last_two_chars = href[-2:] # Konvertiere die letzten beiden Zeichen in einen Integer last_two_chars_int = int(last_two_chars) else: last_two_chars_int = 1 # Falls die letzte Seite nicht gefunden wird, nimm an, dass es nur eine Seite gibt # Schleife durch alle Seiten und sammle Links for page_number in range(1, last_two_chars_int + 1): page_url = f"{base_url}/vereine/Bayern/{ort}/p/{page_number}" response = requests.get(page_url) response.raise_for_status() soup = BeautifulSoup(response.content, 'html.parser') target_div = soup.select_one('div.row-cols-1:nth-child(4)') if target_div: links = [urljoin(base_url, a['href']) for a in target_div.find_all('a', href=True)] all_links.extend(links) else: print(f"Target div not found on page {page_number}") except Exception as e: return str(e), [] return all_links def scrape_links(links): results = [] for link in links: try: # Senden der Anfrage an die URL response = requests.get(link) response.raise_for_status() # Überprüfen, ob die Anfrage erfolgreich war # Parse the HTML content using BeautifulSoup soup = BeautifulSoup(response.content, 'html.parser') # Extrahiere den gewünschten Inhalt (hier als Beispiel der Titel der Seite) content = soup.title.string if soup.title else "No title found" results.append((link, content)) except Exception as e: results.append((link, str(e))) return results # Erstelle die Gradio-Schnittstelle with gr.Blocks() as demo: gr.Markdown("# Vereine in Bayern Parser") ort_input = gr.Textbox(label="Ort", placeholder="Gib den Namen des Ortes ein") links_output = gr.JSON(label="Gefundene Links") content_output = gr.JSON(label="Inhalt der Links") def process_ort(ort): links = parse_links_and_content(ort) scraped_content = scrape_links(links) return links, scraped_content # Button zum Starten der Parsung button = gr.Button("Parse und Scrape") # Verbinde den Button mit der Funktion button.click(fn=process_ort, inputs=ort_input, outputs=[links_output, content_output]) # Starte die Gradio-Anwendung demo.launch()