我的知识记录

如何将网站中的所有图片导出(图文)

将网站中的所有图片导出有多种方法,根据不同的需求和技术水平选择合适的方式:

1. 使用浏览器扩展插件

图片下载插件

Chrome扩展推荐:
  • Image Downloader: 一键抓取页面所有图片
  • Fatkun Batch Download Image: 批量下载图片工具
  • ImageAssistant: 多功能图片助手
使用步骤:
  1. 安装浏览器扩展
  2. 访问目标网站
  3. 点击扩展图标
  4. 查看所有可下载图片
  5. 选择需要的图片批量下载

使用方法示例(Image Downloader):

  1. 安装Image Downloader扩展
  2. 打开目标网站
  3. 点击浏览器工具栏中的扩展图标
  4. 等待插件分析页面图片
  5. 勾选需要下载的图片
  6. 点击"Download"按钮

2. 使用专业下载工具

HTTrack Website Copier(免费)

功能特点:
  • 完整镜像网站
  • 可筛选只下载图片
  • 支持多线程下载
使用步骤:
  1. 下载安装HTTrack
  2. 新建项目
  3. 输入网站URL
  4. 设置过滤规则(只下载图片)
  5. 开始下载

Internet Download Manager(付费)

  • 支持浏览器集成
  • 自动捕获网页图片
  • 批量下载管理

3. 使用开发者工具手动导出

Chrome开发者工具方法

  1. 按F12打开开发者工具
  2. 切换到Network(网络)标签
  3. 刷新页面加载所有资源
  4. 筛选Images类型
  5. 右键点击图片选择"Save image as..."
  6. 或全选后导出为HAR文件

批量获取图片URL


 
javascript
// 在控制台执行获取所有图片URL let images = []; document.querySelectorAll('img').forEach(img => { let src = img.src || img.dataset.src; if(src && !images.includes(src)) { images.push(src); } }); console.log(images); copy(images); // 复制到剪贴板

4. 使用在线图片提取工具

网页图片提取服务

推荐工具:
  • Web Images Extractor
  • Online Image Extractor
  • GetImages
使用步骤:
  1. 访问在线提取工具网站
  2. 输入目标网站URL
  3. 工具自动分析页面图片
  4. 预览并选择需要的图片
  5. 批量下载到本地

5. 编写脚本自动化下载

Python脚本示例


 
python
import requests from bs4 import BeautifulSoup import os from urllib.parse import urljoin def download_images(url, folder_name): # 创建文件夹 if not os.path.exists(folder_name): os.makedirs(folder_name) # 获取网页内容 response = requests.get(url) soup = BeautifulSoup(response.content, 'html.parser') # 查找所有图片 img_tags = soup.find_all('img') # 下载图片 for i, img in enumerate(img_tags): img_url = img.get('src') if img_url: # 处理相对URL img_url = urljoin(url, img_url) # 下载图片 try: img_data = requests.get(img_url).content with open(f'{folder_name}/image_{i}.jpg', 'wb') as handler: handler.write(img_data) print(f'Downloaded: {img_url}') except Exception as e: print(f'Error downloading {img_url}: {e}') # 使用示例 download_images('https://example.com', 'downloaded_images')

JavaScript脚本(Node.js)


 
javascript
const puppeteer = require('puppeteer'); const fs = require('fs'); const https = require('https'); async function scrapeImages(url) { const browser = await puppeteer.launch(); const page = await browser.newPage(); await page.goto(url); // 获取所有图片URL const imageUrls = await page.evaluate(() => { return Array.from(document.querySelectorAll('img')) .map(img => img.src) .filter(src => src); }); // 创建下载目录 if (!fs.existsSync('images')) { fs.mkdirSync('images'); } // 下载图片 for (let i = 0; i < imageUrls.length; i++) { const url = imageUrls[i]; const fileName = `images/image_${i}.jpg`; https.get(url, (response) => { const fileStream = fs.createWriteStream(fileName); response.pipe(fileStream); }); } await browser.close(); } // 使用示例 scrapeImages('https://example.com');

6. 使用wget命令行工具

Linux/Mac终端命令


 
bash
# 下载网站所有图片 wget -r -A "*.jpg,*.png,*.gif,*.jpeg" http://example.com # 递归下载指定深度 wget -r -l 3 -A "*.jpg,*.png" http://example.com # 只下载图片到指定目录 wget --recursive --no-parent --accept jpg,jpeg,png,gif --directory-prefix=./images http://example.com/images/

Windows PowerShell


 
powershell
# 需要先安装wget或使用curl curl -O http://example.com/image.jpg

7. 使用浏览器自带功能

保存完整网页

  1. 在浏览器中打开目标网站
  2. 按Ctrl+S保存网页
  3. 选择"网页,完整"格式
  4. 所有图片会保存到同名文件夹中

查看页面源代码提取

  1. 右键选择"查看页面源代码"
  2. 搜索<img标签
  3. 手动提取图片URL
  4. 使用下载工具批量下载

8. 高级筛选和过滤

按图片尺寸筛选

某些工具支持按图片尺寸筛选:
  • 只下载大于指定尺寸的图片
  • 过滤掉小图标和装饰图片
  • 优先下载高质量图片

按文件类型筛选


 
bash
# wget按类型筛选 wget -r -A "*.jpg,*.png" http://example.com # 排除特定类型 wget -r -R "*.ico,*.gif" http://example.com

9. 注意事项和最佳实践

法律合规

  • 确保有权限下载网站图片
  • 遵守网站robots.txt规则
  • 尊重版权和知识产权

技术限制

  • 某些网站有反爬虫机制
  • 动态加载的图片可能需要特殊处理
  • 大量下载可能被服务器限制

性能优化

  • 设置合理的下载间隔避免给服务器造成压力
  • 使用多线程提高下载效率
  • 断点续传功能很重要

文件管理

  • 按网站或页面分类存储图片
  • 保留原始文件名或建立映射关系
  • 记录图片来源方便后续使用
选择哪种方法取决于你的技术水平、需求规模和具体场景。对于简单的一次性需求,浏览器扩展最方便;对于大量或定期下载,建议使用专业工具或编写脚本。
 

如何将网站中的所有图片导出(图文)

标签:

更新时间:2025-12-16 10:10:12

上一篇:怎么修改网站上的图片尺寸大小(图文)

下一篇:网站上的图片显示不出来怎么办(图文)