123
HTTrack

HTTrack

Ein Website-Kopierdienst, der ganze Websites herunterlädt und lokal rekursiv erstellt.
HTTrack ist ein kostenloses (GPL, libre / free Software) und benutzerfreundliches Offline-Browser-Dienstprogramm.Sie können eine World Wide Web-Site aus dem Internet in ein lokales Verzeichnis herunterladen, alle Verzeichnisse rekursiv erstellen und HTML, Bilder und andere Dateien vom Server auf Ihren Computer übertragen.HTTrack ordnet die relative Linkstruktur der ursprünglichen Sites an.Öffnen Sie einfach eine Seite der gespiegelten Website in Ihrem Browser, und Sie können die Website von Link zu Link durchsuchen, als würden Sie sie online anzeigen.HTTrack kann auch eine vorhandene gespiegelte Site aktualisieren und unterbrochene Downloads fortsetzen.HTTrack ist vollständig konfigurierbar und verfügt über ein integriertes Hilfesystem.WinHTTrack ist die Windows 9x / NT / 2000 / XP / Vista-Version von HTTrack und WebHTTrack die Linux / Unix / BSD-Version.

Kategorien

Alternativen zu HTTrack für alle Plattformen mit einer Lizenz

Wget

Wget

GNU Wget ist ein kostenloses Softwarepaket zum Abrufen von Dateien über HTTP (S) und FTP, die am häufigsten verwendeten Internetprotokolle.
ScrapBook

ScrapBook

ScrapBook ist eine Firefox-Erweiterung, mit der Sie Webseiten speichern und die Sammlung verwalten können.Hauptmerkmale sind Leichtigkeit, Geschwindigkeit, Genauigkeit und mehrsprachige Unterstützung.
WebCopy

WebCopy

Cyotek WebCopy ist ein kostenloses Tool zum lokalen Kopieren vollständiger oder teilweiser Websites auf Ihre Festplatte zur Offline-Anzeige.
Mozilla Archive Format

Mozilla Archive Format

Speichern Sie komplette Webseiten in einer einzigen Datei in einem der folgenden Formate: MAFF (Mozilla Archive Format File) oder MHTML (Internet Explorers MHT).
Offline Explorer

Offline Explorer

MetaProducts Offline Explorer ist ein Windows XP / 2003/2008 / Vista / 7/8/10-Programm, mit dem Sie eine unbegrenzte Anzahl Ihrer bevorzugten Web- und FTP-Sites herunterladen können, um später offline zu sein.
SiteSucker

SiteSucker

macOS-Anwendung, die automatisch Websites aus dem Internet herunterlädt.Dies geschieht durch asynchrones Kopieren der Webseiten, Bilder, PDFs, Stylesheets und anderer Dateien der Site auf Ihre lokale Festplatte, wobei die Verzeichnisstruktur der Site dupliziert wird.
Teleport Pro

Teleport Pro

Teleport Pro ist ein universelles Tool zum Abrufen von Daten aus dem Internet.
PageArchiver

PageArchiver

PageArchiver (früher als "Scrapbook for SingleFile" bezeichnet) ist eine Chrome-Erweiterung, mit der Sie Webseiten zum Offline-Lesen archivieren können.
ScrapBook X

ScrapBook X

ScrapBook X ist ein Firefox-Addon, das auf ScrapBook Plus basiert und verschiedene Funktionen der neuesten Versionen von ScrapBook.Features integriert
ArchiveBox

ArchiveBox

🗃 Das selbst gehostete Open Source-Webarchiv.Nimmt Browserverlauf / Lesezeichen / Pocket / Pinnwand / etc. Auf, speichert HTML, JS, PDFs, Medien und mehr.
  • Kostenlose
grab-site

grab-site

grab-site ist ein Crawler zum Archivieren von Websites in WARC-Dateien.Es enthält ein Dashboard zum Überwachen mehrerer Crawls und unterstützt das Ändern von URL-Ignoriermustern während des Crawls.
HTTP Ripper

HTTP Ripper

HTTP Ripper ist ein Tool zum Auslesen von Inhalten aus dem Web.Beispiele * Laden Sie Filme von Video-Sites herunter * Laden Sie Musik von der Website Ihrer Lieblingsbands herunter
WebScrapBook

WebScrapBook

Eine Browsererweiterung, die die Webseite mit hochgradig anpassbaren Konfigurationen originalgetreu erfasst.
wpull

wpull

Wpull ist ein wget-kompatibler Web-Downloader und Crawler mit Unterstützung für WARC- und Python / Lua-Skripte
Ultra Web Archive

Ultra Web Archive

Damit Sie die gesamte Website archivieren können, müssen Sie die gesamte Seitenhierarchie für das Offline-Browsen auf einer lokalen Festplatte speichern.