python文件自动同步备份v1.2【运维必备】2020/12/31
本帖最后由 We. 于 2021-1-4 08:18 编辑v1版本打包在这里了,感兴趣的自己下来看:
声明:
感谢@dawn2018的提醒,本方案只适用于局域网内同步备份,没有做加密/认证,没有过防火墙。
以下是v1.2内容:
新增加了多进程下载
修改下目录就可以直接拿去用了
--------------------------------------------------------------------------------------------------------------------------
需求:平台会把虚拟机备份的文件打包到服务器A,再同步备份到服务器B(只需要考虑A到B)。
思路:
服务器A作为服务端,定时遍历自己的文件目录,把文件目录信息打包成一个校验文件。
服务器B作为客户端,下载校验文件,遍历自己的文件目录是否和服务器相同,并下载本地没有的文件。
通过http传输,使用python开启一个简单的http服务。有防火墙需要把端口放通,没有就不管。
生产环境:python3.7.9,两台CentOS7.9服务器。
在服务端的备份目录下开启http服务:
nohup是用来后台开启http服务的,不然控制台没法干其他事情。
服务端:
import os
path = '/H3C_Backup'
def func(path):
contents = os.walk(path, topdown=True)
dir = []
file = []
for (root, dirs, files) in contents:
dir.append(root)
for i in files:
file.append(root+'/'+i)
return
content = func(path)
with open(path+'/'+'content.txt', 'w', encoding='utf-8') as f:
for i in content:
f.write(i)
f.write('\n')
with open(path+'/'+'file.txt', 'w', encoding='utf-8') as f:
for i in content:
f.write(i)
f.write('\n')
客户端:
import os
import time
import shutil
import multiprocess
import requests
def init() :
url = ['http://172.172.172.1:8000/file.txt', 'http://172.172.172.1:8000/content.txt']
download_file = requests.get(url, stream=True)
with open('/download/file.txt', 'wb') as f :
for chunk in download_file.iter_content(chunk_size=4096) :
f.write(chunk)
download_content = requests.get(url, stream=True)
with open('/download/content.txt', 'wb') as f :
for chunk in download_content.iter_content(chunk_size=4096) :
f.write(chunk)
def function(path) :
# 通过os.walk()方法遍历到所有文件夹和文件
file = []
dir = []
x = os.walk(path, topdown=True)
for (root, dirs, files) in x :
dir.append(root)
for i in files :
file.append(root + '/' + i)
return
def check_dir(path) :
# 获取本地目录
x = function(path)
dir_so = x
# 清洗服务端目录
dirs = open('/download/content.txt', 'r', encoding='utf-8')
dir_dst = dirs.readlines()
dir_dst_info = []
for i in dir_dst :
i = i.replace('\n', '')
print(i)
dir_dst_info.append(i)
# 比较目录,目录不一致就添加
for i in dir_dst_info + dir_so :
if i not in dir_so :
os.mkdir(i)
print('创建了' + i)
if i not in dir_dst_info :
try :
shutil.rmtree(i)
print('删除了' + i)
except :
pass
def download(url, path) :
download_file = requests.get(url, stream=True)
with open(path, 'wb') as f :
for chunk in download_file.iter_content(chunk_size=10240) :
f.write(chunk)
print('添加了' + path)
def check_file(path) :
x = function(path)
file_so = x
pool = multiprocessing.Pool(processes=10)
# 清洗服务端文件
files = open('/download/file.txt', 'r', encoding='utf-8')
files_dst = files.readlines()
files_dst_info = []
for i in files_dst :
i = i.replace('\n', '')
files_dst_info.append(i)
# 没有的下载,多余的删掉
for i in file_so + files_dst_info :
if i not in file_so :
url = 'http://172.172.172.1:8000' + i
pool.apply_async(download, (url, i,))
if i not in files_dst_info :
os.remove(i)
print('删除了' + i)
pool.close()
pool.join()
if __name__ == '__main__' :
path = '/H3C_Backup'
init()
check_dir(path)
check_file(path)
10个进程起飞,一共12T数据慢慢跑。
12个进程一起跑这cpu占用率有点高啊。
速度也不算慢,一小会儿80个G了。
今早起来一看,传了10个T了,还在运行,等他慢慢弄完把。
待优化:
1、写法待优化
2、触发方式待优化
3、用socket的tcp会不会比http更快?
另外,为什么多线程这么拉跨比单线程还慢?总感觉多进程有点浪费cpu资源。迅雷的下载方式又是如何实现的?
欢迎指教。
moliy 发表于 2020-12-25 21:39
以前有个类似需求,是备份数据库和网站目录的,我那时候用bash写的,在A服务器遍历打包和导出后,直接用scp给传 ...
我考虑用http还是想着最后把这个工具集成到一个管理web上。期待以后发现更多的需求,再在这个工具上增加一些行为把。 麻木不忍 发表于 2021-5-6 22:13
你好,我是做运维的,监控摄像机IP测试和磁盘阵列硬盘、nvr的硬盘运营一段时间都损坏的,需要人为一个去看 ...
我最近也在搞这些玩意儿 一起交流下, 上了规模以后头疼死了, 各种奇奇怪怪的问题。 我也有这样的需求379257839 加个好友一起研究 关注一下,等代成品 高手,学习一下 pkni1230 发表于 2020-12-25 20:44
我也有这样的需求379257839 加个好友一起研究
嗯,加你了。一起讨论下思路 rex 发表于 2020-12-25 20:50
关注一下,等代成品
明天没时间调了, 后天应该能调,我弄好了叫你,下周上生产环境测试。 不错,学习了,谢谢楼主分享! 关注一下 以前有个类似需求,是备份数据库和网站目录的,我那时候用bash写的,在A服务器遍历打包和导出后,直接用scp给传到B服务器..添加到计划任务 这个很实用,持续 关注