如何解决从 Cloud Build 连接到 GKE 集群上的 gRPC 服务
我们正在使用通过 GCP 的 AI Platform Pipelines 创建的托管 Kubeflow Pipelines (KFP) 实例和通过 Cloud SQL 创建的托管 MySQL 实例。我们还使用 Cloud Build 构建和运行我们的 KFP 管道。我们想添加一个 Cloud Build 步骤,在 KFP 管道运行完成后,运行一个脚本,该脚本使用 MLMD API 来查询该管道运行的元数据。我们有一个 MLMD 脚本,可以在 GCP VM 上手动运行时成功查询元数据。问题是让该脚本在 Cloud Build 中运行。
第一种方法是使用 MySQL 连接信息创建 mlmd.metadata_store.MetadataStore
对象,例如,
connection_config = metadata_store_pb2.ConnectionConfig()
connection_config.mysql.host = [IP address]
connection_config.mysql.port = 3306
connection_config.mysql.database = "kubeflow_experiments_metadata_metadata"
connection_config.mysql.user = [user]
connection_config.mysql.password = [password]
store = mlmd.metadata_store.MetadataStore(connection_config)
这在虚拟机上运行良好。但是,似乎需要 Cloud SQL 代理才能在 Cloud Build 中工作。以这个 Cloud Functions codelab 为例,我能够在 Cloud Build 中运行一个脚本,该脚本使用 sqlalchemy 通过代理连接到 MySQL。不过sqlalchemy和proxy连接的方法好像和上面的MLMD API不兼容。它看起来像这样:
driver_name = "mysql+pymysql"
query_string = dict({"unix_socket": "/cloudsql/{}".format(connection_name)})
db = sqlalchemy.create_engine(
sqlalchemy.engine.url.URL(drivername=driver_name,username=[user],password=[password],database="kubeflow_experiments_metadata_metadata",query=query_string),pool_size=5,max_overflow=2,pool_timeout=30,pool_recycle=1800,)
第二种方法使用与 KFP 一起部署的 MLMD gRPC 服务。首先,我将服务端口转发:
kubectl port-forward svc/metadata-grpc-service 8080:8080
然后使用 MLMD gRPC API 创建 mlmd.metadata_store.MetadataStore
:
connection_config = metadata_store_pb2.MetadataStoreClientConfig(
host="127.0.0.1",port=8080,)
store = mlmd.metadata_store.MetadataStore(connection_config)
同样,这在虚拟机上运行良好。但是,我不确定如何从 Cloud Build 连接到 gRPC 服务。我对 gRPC 和 Kubernetes 的经验有限,所以如果有一个简单的解决方案,我不会感到惊讶。
任何建议将不胜感激!
解决方法
通过其他途径,我看到了这个 article,其中包含如何在 Cloud Build 中移植 KFP 的 ml-pipeline 服务的示例。我不得不做一个小的修改,即删除 "-n"
命令的 "kubeflow"
和 kubectl port-forward
参数。这指定 kubectl
使用 "kubeflow"
命名空间。但是,GCP 的 AI Platform Pipelines 在部署您的 KFP 实例时似乎会创建一个 "default"
命名空间。
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。