现在扫IP比较困难了,想要在大量IP段里扫到快的IP是相当费时间的
那么可以筛选出好的IP段,只扫好段
开始教程吧
1.
使用 XX-net 来做辅助实现,首先调一下扫描的最大IP数量
你可以在XX-Net\data\gae_proxy文件夹下新建manual.ini文件
写入下面的内容,这里的大小可以自己改
[google_ip]
max_good_ip_num = 300
最好是小一点,300就差不多,重启xx-net,运行一段时间,让xx-net把无效的ip和低速的ip都剔除掉
这里扫描的时间越长越好
2.
扫出的IP都放在了XX-Net\data\gae_proxy文件夹下good_ip.txt文件里
这里的IP基本都是比较好和快的了,那么可以写一个脚本,把里面的IP提取为IP段
例如: 61.219.131.113 可以改成 61.219.131.0/24 这种形式的
脚本是这样的:
ipset = set()
for x in open('good_ip.txt','r'):
ip = x.strip().split(' ')[0]
ipset.add(ip[:ip.rfind('.')] + '.0/24')
out = '\n'.join(sorted(ipset))
with open('fast_ip.txt','w') as fh:
fh.write(out)
把上面这段保存成 ip_filter.py
脚本筛IP段的时候,不会重复添加IP段,这个大家放心
"../../python27/1.0/python.exe" "%~dp0ip_filter.py"
把上面这句保存成 ip_filter.bat
把保存好的两个文件都放在XX-Net\data\gae_proxy下
用的时候可以运行 ip_filter.bat
这样会生成 fast_ip.txt 文件,这里的IP段就是比较好的了,可以放到xx-net或其他扫IP的工具里
顺便分享一个可以把xx-net的ip直接导出到GoProxy的脚本
import json
import collections
iplist_json = r'E:/Program Files/Proxy/goproxy/iplist.user.json'
with open(iplist_json,'r') as fh:
js = json.load(fh,object_pairs_hook=collections.OrderedDict)
iplist= []
good_ip = open(r'E:\XX-Net\data\gae_proxy\good_ip.txt')
for i,x in enumerate(good_ip):
if i > 100:
break
ip = x.strip().split(' ')[0]
iplist.append(ip)
js['iplist']['google_hk'] = iplist
# js['iplist']['google_cn'] = iplist
with open(iplist_json,'w') as fh:
json.dump(js, fh ,indent=4)
大家要改的地方是【代码中的文件地址】,和 if i > 100 这里的100 这个100的意思是前100个
注意:iplist.user.json不要有任何注释 就是开头是 // 的,有的话就删掉.
https://code.google.com/p/goagent/issues/detail?id=22181&colspec=ID%20Opened%20Reporter%20Modified%20Summary%20Stars
没有评论:
发表评论