Bevor das Web existierte, gab es Usenet. Ein dezentrales, verteiltes Netzwerk aus Tausenden Servern, die Nachrichten replizieren — seit 1980. Diese Dokumentation entschlüsselt Architektur, Provider-Ökosystem, Indexer-Mechanik und den vollständigen *arr-Stack, der das moderne Usenet-Ökosystem antreibt.
Usenet ist älter als das World Wide Web. 1979 von Tom Truscott und Jim Ellis an der Duke University konzipiert, 1980 zum Leben erweckt. Es gab keine zentralen Server. Keinen Konzern. Nur Maschinen, die Nachrichten an andere Maschinen weiterreichten — über das Network News Transfer Protocol (NNTP).
Während Reddit, Twitter und Facebook das Internet zentralisierten, existiert Usenet weiter — dezentral, redundant, fast unzerstörbar. Heute ist es weniger Diskussionsforum, mehr ein gigantisches verteiltes Dateisystem mit über 17 Jahren Retention und über 120.000 aktiven Newsgroups.
Stell dir Usenet als verteilte Bibliothek vor. Jeder Beitrag (Article) wird auf einen Server gepostet — und dieser Server gibt ihn an alle anderen Server weiter, die ihn wiederum weitergeben. Propagation. Das Ergebnis: Die Bibliothek existiert tausendfach. Verschwindet ein Server, sind die Daten weiterhin überall.
Ein User postet einen Article via Newsreader an seinen Provider-Server.
Der Server repliziert den Article via NNTP an verbundene Peer-Server weltweit.
Indexer crawlen Newsgroups und katalogisieren Posts mit Metadaten in NZBs.
User sucht im Indexer und lädt eine kleine NZB-Datei (XML mit Message-IDs).
Newsreader öffnet NZB, kontaktiert Provider via SSL und lädt die Segmente.
PAR2-Verifizierung, Reparatur falls nötig, Entpacken — fertige Datei.
Themenbasierte Foren. Hierarchisch organisiert: comp.* für Computer,
sci.* für Science, alt.* für alles Alternative.
Über 120.000 davon existieren.
Jeder Article bekommt eine einzigartige ID wie <abc123@host.tld>.
Diese ID ist der "Schlüssel" — Newsreader fordern Articles per Message-ID an.
Wie lange ein Provider Articles speichert. Top-Provider (Eweka, Newshosting) bieten heute über 6470 Tage Retention — also Posts aus 2008+ sind noch verfügbar.
Prozent der versprochenen Retention, der tatsächlich abrufbar ist. 99%+ ist Standard bei Tier-1-Providern. Niedrigere Werte = inkomplette Downloads.
XML-Datei, die Message-IDs aller Segmente eines Posts auflistet. Statt Header zu durchsuchen, gibt der Indexer dem Reader eine Landkarte.
Reed-Solomon-basierte Wiederherstellungsblöcke. Selbst wenn 5–10% einer Datei fehlen, kann der Reader sie aus PAR2-Files rekonstruieren.
<?xml version="1.0" encoding="UTF-8"?> <nzb xmlns="http://www.newzbin.com/DTD/2003/nzb"> <file poster="yenc@poster.com" date="1735689600" subject="[001/045] - example.mkv yEnc (1/100)"> <groups> <group>alt.binaries.example</group> <group>alt.binaries.movies</group> </groups> <segments> <segment bytes="768000" number="1"> abc123def456@news.example.org </segment> <segment bytes="768000" number="2"> ghi789jkl012@news.example.org </segment> <!-- ... bis zu tausenden Segmenten ... --> </segments> </file> </nzb>
Anders als das Web brauchst du beim Usenet drei separate Komponenten (oder vier, wenn du automatisierst). Jede macht eine Sache — sehr gut. Diese Trennung ist ein Feature, kein Bug: Du kannst jeden Layer unabhängig wechseln.
Dein Tor zum Usenet-Netzwerk. Provider betreiben die Server, die alle Articles speichern. Du zahlst monatlich/jährlich für Zugang. Wichtigste Faktoren: Retention, Completion, Backbone.
Beispiele: Eweka (NL), Newshosting (US), UsenetExpress, NewsDemon, Tweaknews, Easynews, Frugal Usenet, ViperNews.
Software, die mit Provider-Servern via NNTP spricht. Lädt Articles, verifiziert PAR2, entpackt RAR-Archive. SABnzbd und NZBGet dominieren den Binary-Bereich; Thunderbird für Text-Newsgroups.
SABnzbd: webbasiert, in Python, plattformübergreifend, bester Support. NZBGet: C++, ressourcenschonender, ideal für Synology/NAS.
Suchmaschinen für Usenet. Crawlen Newsgroups, generieren NZB-Files, bieten Web- und API-Zugriff. Funktionieren wie Google — aber speziell für Usenet-Posts. Meist günstig: 5–25 USD/Jahr.
NZBgeek, NZBFinder, DrunkenSlug, NZBPlanet, altHUB, Binsearch (frei). Manche per Invite-only (DrunkenSlug), andere offen (NZBgeek).
Der "*arr-Stack" automatisiert alles: Sonarr (TV), Radarr (Filme), Lidarr (Musik), Readarr (Bücher), Prowlarr (Indexer-Hub), Bazarr (Untertitel).
Plus: Overseerr (Request-Frontend), Plex/Jellyfin/Emby (Streaming-Server), Tautulli (Stats), FlareSolverr (Cloudflare-Bypass).
Hinter den vielen Provider-Marken stehen tatsächlich nur drei große Backbones: Omicron (Newshosting / Eweka / UsenetServer), UsenetExpress, und ViperNews/News-Service-Europe. Provider mit unterschiedlichen Backbones zu kombinieren erhöht die Completion massiv.
| Provider | Region | Retention | Connections | Besonderheiten |
|---|---|---|---|---|
| Eweka | Niederlande | 6470+ Tage | 50 | EU-fokussiert, eigener Newsreader, sehr stabil |
| Newshosting | USA | 6470+ Tage | 100 | Inkl. Free VPN, beliebter Built-in Newsreader |
| UsenetServer | USA | 6470+ Tage | 50 | Globales Netzwerk, integrierte Suche |
| Easynews | USA | 5430+ Tage | 60 | Web-basierte Suche mit Vorschau, kein Client nötig |
| Tweaknews | EU | 6470+ Tage | 60 | EU-Server, günstige Long-Term-Pläne |
| Provider | Region | Retention | Connections | Besonderheiten |
|---|---|---|---|---|
| NewsDemon | USA | 5695+ Tage | 50 | Sehr günstig, inkl. SlickVPN |
| UsenetExpress | USA | 5500+ Tage | 30 | Eigener Backbone — ideale Ergänzung zu Omicron |
| Frugal Usenet | USA | 5500+ Tage | 30 | Einer der günstigsten "echten" Provider |
| Provider | Region | Retention | Connections | Besonderheiten |
|---|---|---|---|---|
| ViperNews | Niederlande | 5500+ Tage | 30 | EU-Backbone, gute DMCA-Resistenz |
| XS Usenet | Niederlande | 1500+ Tage | 4 | Kleinere Retention, sehr günstig |
| PureUsenet | Niederlande | 5500+ Tage | 30 | Reseller, identische Datenbasis wie ViperNews |
Block-Accounts sind Pay-as-you-go: Du kaufst z.B. 500 GB, die nie verfallen. Ideal als Backup-Provider, um fehlende Articles aus deinem Hauptprovider zu ergänzen.
| Anbieter | Backbone | Volumen | Strategie |
|---|---|---|---|
| UsenetExpress Block | UsenetExpress | 250 GB – 1 TB | Komplementär zu Omicron-Hauptaccount |
| UsenetFarm Block | UsenetFarm | 500 GB – 5 TB | EU-Backbone, oft hohe Completion auf alte Posts |
| Eweka Block | Omicron | 50 GB – 1 TB | Wenn dein Haupt-Provider ein anderer Backbone ist |
Indexer crawlen Newsgroups 24/7, parsen Header, deobfuscieren Filenames und bauen durchsuchbare Datenbanken. Sie hosten keine Files selbst — sie sind reine Suchmaschinen. Ohne sie wäre Usenet nahezu unbenutzbar.
Der Veteran seit 2012. Community-driven, GeekSeek-Suche mit starken Filtern. Lifetime-Pläne legendär. Beste Allrounder-Wahl für Einsteiger.
EU-basiert (nZEDb-engine), 8+ Jahre Backlog. Smart deobfuscation für saubere Filenames. Großzügiger Free-Tier (5 NZBs / Tag).
Premium-Indexer, sehr gepflegte Datenbank, hohe Qualität. Registrierung nur sporadisch — wenn offen, sofort zuschlagen.
Kostenlos, klassische Web-Oberfläche. Keine API, kein Sonarr-Support — aber perfekt zum manuellen Suchen, gerade in Text-Groups.
Solider Backup-Indexer. Wird oft als zweiter oder dritter Indexer in Prowlarr konfiguriert für Redundanz bei seltenen Releases.
Newer Indexer mit Fokus auf Qualität und kuratierte Inhalte. Lifetime-Optionen verfügbar. Beliebt in der Power-User-Community.
Open-Source-Meta-Searcher. Aggregiert mehrere Indexer (Newznab + Torznab) hinter einem einzigen Endpunkt. Spart API-Calls, ranked Results, dedupliziert.
Der heilige Gral der *arr-Welt: Verwalte alle Indexer an einem Ort, sync sie automatisch zu Sonarr/Radarr/Lidarr/Readarr. Unterstützt 500+ Indexer (Usenet + Torrent).
Diese Karte zeigt, wie die Komponenten ineinandergreifen. Vom User-Request über Overseerr, durch den *arr-Stack, zu Indexern und Provider, zurück über SABnzbd in die Plex-Library. Hover über die Knoten für Details.
# Docker-basiertes Setup (empfohlen) docker run -d \ --name=sabnzbd \ -p 8080:8080 \ -v /your/config:/config \ -v /your/downloads:/downloads \ -e PUID=1000 -e PGID=1000 \ -e TZ=Europe/Berlin \ lscr.io/linuxserver/sabnzbd:latest # Dann im Browser öffnen: open http://localhost:8080 # Server hinzufügen: Host: news.eweka.nl Port: 563 (SSL) Username: dein-username Password: dein-passwort Connections: 50
tv, movies,
music. Sonarr/Radarr nutzen diese später, um Downloads automatisch in die richtigen Ordner zu sortieren.
Prowlarr verwaltet alle Indexer zentral und synct sie zu Sonarr/Radarr. Setup-Schritte:
:9696 öffnen
In Sonarr (:8989) und Radarr (:7878):
Wenn Prowlarr richtig konfiguriert ist, erscheinen die Indexer hier automatisch. Ansonsten: in Prowlarr → Apps → Add → Sonarr/Radarr → API-Key eintragen.
Add → SABnzbd → Host, Port, API-Key. Wichtig:
Category passend setzen (tv für Sonarr,
movies für Radarr).
Setze die finalen Ziel-Pfade: z.B. /data/media/tv
und /data/media/movies. Niemals identisch mit Download-Folder!
Definiere, welche Qualität du willst (1080p, 2160p HDR, etc.). TRaSH-Guides sind die Goldquelle für optimale Custom-Format-Setups.
// Test: Eine Serie in Sonarr hinzufügen [Sonarr] Add Series → "Test Show" → Sonarr fragt Prowlarr nach Indexern → Prowlarr aggregiert NZBgeek + NZBFinder → Sonarr findet Match: "Test.Show.S01E01.1080p.NZB" [Sonarr] Sendet .nzb an SABnzbd → SABnzbd reiht ein, queued → Verbindet sich mit news.eweka.nl:563 (SSL) → Lädt Segmente parallel (50 connections) [SABnzbd] Post-Processing → PAR2-Verifizierung: OK ✓ → Reparatur (falls nötig): - → unrar: TestShow.S01E01.mkv extrahiert → Move to: /data/media/tv/Test Show/ [Sonarr] Library-Update → File renamed nach Schema → Plex notification → Library-Scan // Status: WORKFLOW SUCCESS ✓
NNTP-over-SSL ist Standard. Niemals Port 119 verwenden — das ist unverschlüsselt. Falls 563 von deinem ISP geblockt wird, nutze 443 (Standard-HTTPS-Port, fast nie geblockt).
Moderne Provider unterstützen X25519MLKEM768 hybrid key exchange
(OpenSSL 3.5.0+). Bedeutet: deine Sessions sind selbst gegen zukünftige Quantencomputer geschützt.
SSL macht den Inhalt deiner Verbindung privat — aber dein ISP sieht trotzdem, dass du mit einem Usenet-Server sprichst. Ein VPN versteckt das. Viele Provider (Newshosting, NewsDemon) inkludieren einen VPN.
Beim Posten kannst du X-No-Archive: yes setzen — dann archivieren
kompatible Provider den Post nicht dauerhaft. Nicht alle Provider respektieren das.
comp.os.linux).