如何解决如何使用python v2 api将非常大的文件流式传输到Dropbox
背景
我终于说服了一个愿意免费共享他的full archival node 5868GiB数据库的人(该数据库现在需要在ram中构建,因此需要价值100000 $的ram才能构建,但是可以一次在ssd上运行完成)。
但是他只想通过原始tcp使用一个相当慢的(400Mps)连接来通过原始tcp发送单个tar文件来发送它。
我需要将其放在保管箱上,因此,他不想使用https://www.dropbox.com/request/[my upload key here]
来允许通过没有保管箱帐户的网络浏览器上传文件(这让他谈论我使用另一个帐户的做法非常困扰。方法或将数据库压缩到他即将改变共享想法的边缘。
因为就我而言,Dropbox允许在30天内免费使用10Tib的存储空间,但我尚未收到所需的ssd(因此,一旦收到,我将能够以更快的速度下载它)。
问题
我完全了解upload file to my dropbox from python script,但就我而言,文件甚至不适合磁盘上的内存缓冲区。 而且以前在api v1中无法将数据附加到现有文件中(但我找不到v2的答案)。
解决方法
要使用Dropbox Python SDK将大文件上传到Dropbox API,您可以使用upload sessions分段上传。有a basic example here。
请注意,the Dropbox API only supports files up to 350 GB though。
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。