如何解决如何在 CI/CD 中部署 Google Cloud Functions 而不重新部署未更改的 Cloud Functions 以避免配额?
Cloud Build 的创建配额为 30。如果我们有超过 30 个 Cloud Functions,这个配额很容易达到。有没有一种方法可以部署超过 30 个人们使用的 Cloud Functions,最好是足够聪明,不会部署未经修改的 Cloud Functions?
解决方法
根据我们在 GCP 社区 slack 频道中的对话,这里有一个想法和一个小例子。该示例描述了一个云函数,但可以轻松扩展到任意一组云函数。
请记住 - 这不是我的发明 - 人们可以在互联网上找到大量示例。
CICD 在 Cloud Build 中使用 Terraform(简单地说 - 云构建 yaml 文件包含“terraform init”和“terraform apply”)。因此,推送(或拉取请求)会触发执行 Terraform 的 Cloud Build 作业。
在这个问题的范围内 - terraform 脚本应该有 4 个元素:
1/ 带有云函数代码的 zip 存档的名称 - 它应该在 GCS 存储桶中:
locals {
cf_zip_archive_name = "cf-some-prefix-${data.archive_file.cf_source_zip.output_sha}.zip"
}
2/ 一个 zip 存档:
data "archive_file" "cf_source_zip" {
type = "zip"
source_dir = "${path.module}/..<<path + directory to the CF code>>"
output_path = "${path.module}/tmp/some-name.zip"
}
3/ 存储桶中的 GCS 对象(假设存储桶已存在,或在此问题范围之外创建):
resource "google_storage_bucket_object" "cf_source_zip" {
name = local.cf_zip_archive_name
source = data.archive_file.cf_source_zip.output_path
content_type = "application/zip"
bucket = google_storage_bucket.cf_source_archive_bucket.name
}
4/ 一个云函数(只显示了 2 个参数):
resource "google_cloudfunctions_function" "sf_integrations" {
source_archive_bucket = google_storage_bucket.cf_source_archive_bucket.name
source_archive_object = google_storage_bucket_object.cf_source_zip.name
}
如何协同工作 =>
当 Terraform 被触发时,会创建 zip 文件,以防云函数代码被修改。 zip 文件的 SHA 哈希码不同(如果代码已被修改)。因此,具有 GCS 对象名称的局部变量获得不同的值。这意味着 zip 文件将使用新名称上传到 GCS 存储桶。由于源代码对象现在有一个新名称 source_archive_object = google_storage_bucket_object.cf_source_zip.name
,terraform 发现必须重新部署云函数(因为状态文件具有存档对象的旧名称)。重新部署了云功能。
另一方面,如果代码未修改 - 名称 source_archive_object = google_storage_bucket_object.cf_source_zip.name
未修改,因此 Terraform 不会部署任何内容。
显然,如果修改了其他参数 - 无论如何重新部署都会继续。
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。