timu
1、海量日志数据,提取出某日访问百度次数最多的那个 IP。
首先是这一天,并且是访问百度的日志中的 IP 取出来,逐个写入到一个大文件中。注意到
IP 是 32 位的,最多有个 2^32 个 IP。同样可以采用映射的方法,比如模 1000,把整个大文
件映射为 1000 个小文件,再找出每个小文中出现频率最大的 IP(可以采用 hash_map 进行
频率统计,然后再找出频率最大的几个)及相应的频率。然后再在这 1000 个最大的
IP 中,找出那个频率最大的 IP,即为所求。或者如下阐述(雪域之鹰):算法思想:分
而治之+Hash
1.IP 地址最多有 2^32=4G 种取值情况,所以不能完全加载到内存中处理;
2.可以考虑采用“分而治之”的思想,按照 IP 地址的 Hash(IP)%1024 值,把海量 IP 日志分别
存储到 1024 个小文件中。这样,每个小文件最多包含 4MB 个 IP 地址;
3.对于每一个小文件,可以构建一个 IP 为 key,出现次数为 value 的 Hashmap,同时记录当
前出现次数最多的那个 IP 地址;
4.可以得到 1024 个小文件中的出现次数最多的 IP,再依据常规的排序算法得到总体上出现
次数最多的 IP;
2、搜索引擎会通过日志文件把用户每次检索使用的所有检索串都记录下来,每个查询串的
长度为 1-255 字节。
假设目前有一千万个记录(这些查询串的重复度比较高,虽然总数是 1 千万,但如果除
去重复后,不超过 3 百万个。一个查询串的重复度越高,说明查询它的用户越多,也就是
越热门。),请你统计最热门的 10 个查询串,要求使用的内存不能超过 1G。
3、有一个 1G 大小的一个文件,里面每一行是一个词,词的大小不超过 16 字节,内存
限制大小是 1M。返回频数最高的 100 个词。
方案:顺序读文件中,对于每个词 x,取 hash(x)%5000,然后按照该值存到 5000 个小文
件(记为 x0,x1,…x4999)中。这样每个文件大概是 200k 左右。
如果其中的有的文件超过了 1M 大小,还可以按照类似的方法继续往下分,直到分解得
到的小文件的大小都不超过 1M。
对每个小文件,统计每个文件中出现的词以及相应的频率(可以采用 trie 树/hash_map
等),并取出出现频率最大的 100 个词(可以用含 100 个结点的最小堆),并把 100 个词
及相应的频率存入文件,这样又得到了 5000 个文件。下一步就是把这 5000 个文件进行归
并(类似与归并排序)的过程了。
4、有 10 个文件,每个文件 1G,每个文件的每一行存放的都是用户的 query,每个文件
的 query 都可能重复。要求你按照 query 的频度排序。还是典型的 TOPK 算法,解决方案