我正在处理一个可以拥有数千个表的数据库系统.问题是,当我尝试使用pg_dump备份它时,我有时会收到以下错误:
pg_dump: WARNING: out of shared memory pg_dump: SQL command failed pg_dump: Error message from server: ERROR: out of shared memory HINT: You might need to increase max_locks_per_transaction. pg_dump: The command was: LOCK TABLE public.foo IN ACCESS SHARE MODE
我当然可以增加max_locks_per_transaction设置.但问题是表的数量可能会有所不同.每次出现故障时我都不想经常重新访问此设置(假设我们完全注意到故障,因为这是在cron工作中!).
解决这个问题的最佳方法是什么?目前我正在研究一个Perl脚本,它将列出所有表,然后在“chunks”中调用pg_dump以限制表锁的数量,但我敢打赌我可以做得更好.
如果需要一致的备份,则必须增加max_locks_per_transaction.
如果您具有并发访问权限,那么从脚本中执行此操作将使备份不一致,这可能不是您想要的.
您的另一个选择是使用PITR并执行文件系统级备份.这不会在数据库中取出任何锁.
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。