由于水平原因,博客大部分内容摘抄于网络,如有错误或者侵权请指出,本人将尽快修改

1242. 多线程网页爬虫

1242. 多线程网页爬虫

题目描述

给你一个初始地址 startUrl 和一个 HTML 解析器接口 HtmlParser,请你实现一个 多线程的网页爬虫,用于获取与 startUrl 有 相同主机名 的所有链接。 

以 任意 顺序返回爬虫获取的路径。

爬虫应该遵循:

  • 从 startUrl 开始
  • 调用 HtmlParser.getUrls(url) 从指定网页路径获得的所有路径。
  • 不要抓取相同的链接两次。
  • 仅浏览与 startUrl 相同主机名 的链接。

如上图所示,主机名是 example.org 。简单起见,你可以假设所有链接都采用 http 协议,并且没有指定 端口号。举个例子,链接 http://leetcode.com/problems 和链接 http://leetcode.com/contest 属于同一个 主机名, 而 http://example.org/test 与 http://example.com/abc 并不属于同一个 主机名

HtmlParser 的接口定义如下:

interface HtmlParser {
  // Return a list of all urls from a webpage of given url.
  // This is a blocking call, that means it will do HTTP request and return when this request is finished.
  public List<String> getUrls(String url);
}

注意一点,getUrls(String url) 模拟执行一个HTTP的请求。 你可以将它当做一个阻塞式的方法,直到请求结束。 getUrls(String url) 保证会在 15ms 内返回所有的路径。 单线程的方案会超过时间限制,你能用多线程方案做的更好吗?

对于问题所需的功能,下面提供了两个例子。为了方便自定义测试,你可以声明三个变量 urlsedges 和 startUrl。但要注意你只能在代码中访问 startUrl,并不能直接访问 urls 和 edges

 

拓展问题:

  1. 假设我们要要抓取 10000 个节点和 10 亿个路径。并且在每个节点部署相同的的软件。软件可以发现所有的节点。我们必须尽可能减少机器之间的通讯,并确保每个节点负载均衡。你将如何设计这个网页爬虫?
  2. 如果有一个节点发生故障不工作该怎么办?
  3. 如何确认爬虫任务已经完成?

 

示例 1:

输入:
urls = [
  "http://news.yahoo.com",
  "http://news.yahoo.com/news",
  "http://news.yahoo.com/news/topics/",
  "http://news.google.com",
  "http://news.yahoo.com/us"
]
edges = [[2,0],[2,1],[3,2],[3,1],[0,4]]
startUrl = "http://news.yahoo.com/news/topics/"
输出:[
  "http://news.yahoo.com",
  "http://news.yahoo.com/news",
  "http://news.yahoo.com/news/topics/",
  "http://news.yahoo.com/us"
]

示例 2:

输入:
urls = [
  "http://news.yahoo.com",
  "http://news.yahoo.com/news",
  "http://news.yahoo.com/news/topics/",
  "http://news.google.com"
]
edges = [[0,2],[2,1],[3,2],[3,1],[3,0]]
startUrl = "http://news.google.com"
输出:["http://news.google.com"]
解释:startUrl 链接与其他页面不共享一个主机名。

 

提示:

  • 1 <= urls.length <= 1000
  • 1 <= urls[i].length <= 300
  • startUrl 是 urls 中的一个。
  • 主机名的长度必须为 1 到 63 个字符(包括点 . 在内),只能包含从 “a” 到 “z” 的 ASCII 字母和 “0” 到 “9” 的数字,以及中划线 “-”。
  • 主机名开头和结尾不能是中划线 “-”。
  • 参考资料:https://en.wikipedia.org/wiki/Hostname#Restrictions_on_valid_hostnames
  • 你可以假设路径都是不重复的。

解法

java

// This is the HtmlParser’s API interface.
// You should not implement it, or speculate about its implementation.
interface HtmlParser {
    // Return a list of all URLs from a webpage of given url.
    // This is a blocking call (e.g., simulates an HTTP request).
    List<String> getUrls(String url);
}

public class Solution {
    public List<String> crawl(String startUrl, HtmlParser htmlParser) {
        // 提取起始 URL 的主机名 (hostname) 部分
        String hostName = getHostName(startUrl);
        // 用线程安全的 Set 来记录已访问的 URL
        Set<String> visited = ConcurrentHashMap.newKeySet();
        // 启动线程池。可以视题目规模选择线程数,这里假定固定线程池大小。
        ExecutorService executor = Executors.newFixedThreadPool(64);
        
        // 添加起始 URL
        visited.add(startUrl);
        // 启动递归式或任务提交式爬取
        crawlHelper(startUrl, htmlParser, hostName, visited, executor);
        
        // 等待线程池任务完成
        executor.shutdown();
        try {
            // 等待一定时间或直到全部任务完成
            executor.awaitTermination(10, TimeUnit.MINUTES);
        } catch (InterruptedException e) {
            Thread.currentThread().interrupt();
        }
        
        // 返回结果
        return new ArrayList<>(visited);
    }

    private void crawlHelper(String url, HtmlParser htmlParser,
                             String hostName, Set<String> visited,
                             ExecutorService executor) {
        // 提交一个任务去获取 url 的所有子链接
        executor.submit(() -> {
            // 获取当前 url 的所有链接
            List<String> nextUrls = htmlParser.getUrls(url);
            for (String next : nextUrls) {
                // 只爬取 **同一个主机名** 的 URL,且未访问过
                if (getHostName(next).equals(hostName) && visited.add(next)) {
                    // 如果加入 visited 成功,说明是第一次遇到
                    // 继续递归爬取
                    crawlHelper(next, htmlParser, hostName, visited, executor);
                }
            }
        });
    }

    private String getHostName(String url) {
        // 假定 url 以 "http://" 开头,无端口号
        // 例如 "http://news.yahoo.com/news" → 主机名 "news.yahoo.com"
        int idx = url.indexOf('/', 7);  // “http://” 长度为7
        return (idx == -1) ? url.substring(7) : url.substring(7, idx);
    }
}

Java

import java.util.*;
import java.util.concurrent.*;
import java.util.stream.Collectors;

// 题目提供的接口
interface HtmlParser {
    public List<String> getUrls(String url);
}

public class Solution {

    public List<String> crawl(String startUrl, HtmlParser htmlParser) {
        // 提取起始 URL 的 hostname
        String hostName = getHostName(startUrl);

        // 线程安全的已访问 URL 集合
        Set<String> visited = ConcurrentHashMap.newKeySet();
        visited.add(startUrl);

        // 自定义线程池(比默认 ForkJoinPool 更可控)
        ExecutorService executor = Executors.newFixedThreadPool(64);

        // 启动异步任务
        CompletableFuture<Void> future = crawlAsync(startUrl, htmlParser, hostName, visited, executor);

        // 等待所有任务完成
        future.join();

        executor.shutdown();

        // 返回结果
        return new ArrayList<>(visited);
    }

    private CompletableFuture<Void> crawlAsync(
            String url,
            HtmlParser htmlParser,
            String hostName,
            Set<String> visited,
            ExecutorService executor) {

        // 用 supplyAsync 异步获取链接
        return CompletableFuture.supplyAsync(() -> htmlParser.getUrls(url), executor)
            .thenCompose(urls -> {
                // 对子 URL 启动异步任务
                List<CompletableFuture<Void>> futures = new ArrayList<>();

                for (String next : urls) {
                    // 只处理同一域名的且未访问过的 URL
                    if (getHostName(next).equals(hostName) && visited.add(next)) {
                        futures.add(crawlAsync(next, htmlParser, hostName, visited, executor));
                    }
                }

                // allOf 等待所有子任务完成
                return CompletableFuture.allOf(futures.toArray(new CompletableFuture[0]));
            });
    }

    private String getHostName(String url) {
        // 假设 URL 以 "http://" 开头
        int idx = url.indexOf('/', 7);
        return idx == -1 ? url.substring(7) : url.substring(7, idx);
    }
}

...


posted @ 2025-10-21 18:16  小纸条  阅读(6)  评论(0)    收藏  举报