尝试查询mssql数据库时出现气流Fernet_Key问题

我对Airflow很陌生.我已经阅读了几次文档,在网上遇到了许多S / O问题和许多随机文章,但尚未解决此问题.我觉得这很简单,我做错了.
我有适用于Windows的Docker,我拉起了puckel / docker-airflow映像并运行了一个带有暴露端口的容器,以便可以从主机访问UI.我有另一个运行mcr.microsoft.com/mssql/server的容器,在该容器上还原了WideWorldImporters示例数据库.通过Airflow UI,我已经能够成功创建与此数据库的连接,甚至可以从“数据分析”部分中查询它.查看以下图像:
Connection Creation
Successful Query to Connection

因此,尽管这可行,但我的dag在第二个任务sqlData失败.这是代码:

from airflow.models import DAG
from airflow.operators.bash_operator import BashOperator
from airflow.operators.python_operator import PythonOperator
from airflow.operators.mssql_operator import MsSqlOperator
from datetime import timedelta,datetime

copyData = DAG(
    dag_id='copyData',schedule_interval='@once',start_date=datetime(2019,1,1)
)


printHelloBash = BashOperator(
    task_id = "print_hello_Bash",bash_command = 'echo "Lets copy some data"',dag = copyData
)

mssqlConnection = "WWI"
sqlData = MsSqlOperator(sql="select top 100 InvoiceDate,TotalDryItems from sales.invoices",task_id="select_some_data",mssql_conn_id=mssqlConnection,database="WideWorldImporters",dag = copyData,depends_on_past=True
          )

queryDataSuccess = BashOperator(
    task_id = "confirm_data_queried",bash_command = 'echo "We queried data!"',dag = copyData
)

printHelloBash >> sqlData >> queryDataSuccess

最初的错误是:

*[2019-02-22 16:13:09,176] {{logging_mixin.py:95}} INFO - [2019-02-22 16:13:09,176] {{base_hook.py:83}} INFO - Using connection to: 172.17.0.3  
[2019-02-22 16:13:09,186] {{models.py:1760}} ERROR - Could not create Fernet object: Incorrect padding  
Traceback (most recent call last):  
  File "/usr/local/lib/python3.6/site-packages/airflow/models.py",line 171,in get_fernet
    _fernet = Fernet(fernet_key.encode('utf-8'))  
  File "/usr/local/lib/python3.6/site-packages/cryptography/fernet.py",line 34,in __init__
    key = base64.urlsafe_b64decode(key)  
  File "/usr/local/lib/python3.6/base64.py",line 133,in urlsafe_b64decode
    return b64decode(s)  
  File "/usr/local/lib/python3.6/base64.py",line 87,in b64decode
    return binascii.a2b_base64(s)
binascii.Error: Incorrect padding*

我注意到这与加密有关,因此我继续运行pip install加密和pip install airflow [crytpo],它们都返回了完全相同的结果,通知我该要求已经得到满足.终于,我发现一些东西说我只需要生成一个fernet_key.我的airflow.cfg文件中的默认密钥为fernet_key = $FERNET_KEY.因此,从容器中的cli中我运行了:

python -c "from cryptography.fernet import Fernet; print(Fernet.generate_key().decode())"

并得到了我用$FERNET_KEY替换的代码.我重新启动了容器,然后重新运行了dag,现在我的错误是:

[2019-02-22 16:22:13,641] {{models.py:1760}} ERROR -   
Traceback (most recent call last):  
  File "/usr/local/lib/python3.6/site-packages/cryptography/fernet.py",line 106,in _verify_signature
    h.verify(data[-32:])  
  File "/usr/local/lib/python3.6/site-packages/cryptography/hazmat/primitives/hmac.py",line 69,in verify
    ctx.verify(signature)  
  File "/usr/local/lib/python3.6/site-packages/cryptography/hazmat/backends/openssl/hmac.py",line 73,in verify
    raise InvalidSignature("Signature did not match digest.")  
cryptography.exceptions.InvalidSignature: Signature did not match digest.

初始加密文档扫描中的哪一项与兼容性有关?

我现在迷茫了,决定决定问这个问题,看看我在解决这个问题上是否走了错误的道路.任何帮助将不胜感激,因为气流似乎很棒.

最佳答案
感谢@Tomasz的一些侧面交流,我终于让DAG可以工作了.他建议我尝试使用docker-compose,该工具也在puckel / docker-airflow github存储库中列出.我最终使用了docker-compose-LocalExecutor.yml文件而不是Celery Executor.我进行了一些小的故障排除和更多的配置.首先,我将现有的装有示例数据库的MSSQL容器放入其中,并使用docker commit mssql_container_name将其转换为映像.我这样做的唯一原因是节省了必须还原备份样本数据库的时间.您始终可以将备份复制到容器中,并在以后根据需要还原它们.然后,将新映像添加到现有的docker-compose-LocalExecutor.yml文件中,如下所示:

version: '2.1'
services:
    postgres:
        image: postgres:9.6
        environment:
            - POSTGRES_USER=airflow
            - POSTGRES_PASSWORD=airflow
            - POSTGRES_DB=airflow

    mssql:
        image: dw:latest
        ports:
            - "1433:1433"

    webserver:
        image: puckel/docker-airflow:1.10.2
        restart: always
        depends_on:
            - postgres
            - mssql
        environment:
            - LOAD_EX=n
            - EXECUTOR=Local
        #volumes:
            #- ./dags:/usr/local/airflow/dags
            # Uncomment to include custom plugins
            # - ./plugins:/usr/local/airflow/plugins
        ports:
            - "8080:8080"
        command: webserver
        healthcheck:
            test: ["CMD-SHELL","[ -f /usr/local/airflow/airflow-webserver.pid ]"]
            interval: 30s
            timeout: 30s
            retries: 3

请注意,dw是我命名基于mssql容器的新映像的名称.接下来,我将文件重命名为docker-compose.yml,以便可以轻松运行docker-compose(不确定是否有直接指向另一个YAML文件的命令).一切启动并运行后,我导航至Airflow UI并配置了连接.注意:由于您使用的是docker-compose,因此您无需知道其他容器的IP地址,因为它们使用的是DNS服务发现功能,我发现它约为here.然后,为了测试连接,我去了Data Profiling做广告-hoc查询,但连接不存在.这是因为puckel / docker-airflow映像未安装pymssql.因此,只需将bash拖入容器docker exec -it airflow_webserver_container bash并将其安装pip install pymssql –user.退出容器并使用docker-compose restart重新启动所有服务.一分钟后,一切正常.我的连接显示在临时查询中,可以成功选择数据.最终,我打开了DAG,调度程序将其选中,一切都成功了!经过数周的谷歌搜索,超级放心.感谢@ y2k-shubham的帮助和对@Tomasz的超级感谢,我在他关于r / datascience subreddit上关于Airflow的精彩而透彻的发布之后,实际上是我最初与之接触的.

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。

相关推荐


最近一直在开发Apworks框架的案例代码,同时也在一起修复Apworks框架中的Bug和一些设计上的不足。遇到的一个普遍问题是,代码的调试过程需要依赖很多外部系统,比如MongoDB、PostgreSQL、RabbitMQ等。当然可以在本机逐一安装这些服务,然后对服务进行配置,使其满足自己开发调试
最近每天都在空闲时间努力编写Apworks框架的案例代码WeText。在文本发布和处理微服务中,我打算使用微软的SQL Server for Linux来做演示,于是也就在自己的docker-compose中加入了MS SQL Server的服务。其实在Docker中运行SQL Server是非常容
在《Kubernetes中分布式存储Rook-Ceph部署快速演练》文章中,我快速介绍了Kubernetes中分布式存储Rook-Ceph的部署过程,这里介绍如何在部署于Kubernetes的ASP.NET Core MVC的应用程序中使用Rook-Ceph所创建的存储对象。 构建ASP.NET C
最近在项目中有涉及到Kubernetes的分布式存储部分的内容,也抽空多了解了一些。项目主要基于Rook-Ceph运行,考虑到Rook-Ceph部署也不那么简单,官方文档的步骤起点也不算低,因此,在整合官方文档的某些步骤的基础上,写篇文章简单总结一下。 Rook-Ceph是Kubernetes中分布
CentOS下Docker与.netcore(一) 之 安装 CentOS下Docker与.netcore(二) 之 Dockerfile CentOS下Docker与.netcore(三)之 三剑客之一Docker-Compose CentOS下Docker与.netcore(四)之 三剑客之一D
CentOS下Docker与.netcore(一) 之 安装 CentOS下Docker与.netcore(二) 之 Dockerfile CentOS下Docker与.netcore(三)之 三剑客之一Docker-Compose CentOS下Docker与.netcore(四)之 三剑客之一D
构建镜像最具挑战性的一点是使镜像大小尽可能的小。Dockerfile中的每条指令都为图像添加了一个图层,您需要记住在移动到下一层之前清理任何不需要的工件。对于多阶段构建,您可以在Dockerfile中使用多个FROM语句。每个FROM指令可以使用不同的基础,并且每个指令都开始一个新的构建。您可以选择
本文介绍compose配置文件参数的使用,熟练编写compose文件 [root@docker lnmp]# cat lnmp.yaml version: '3' services: nginx: build: /root/docker_demo/nginx/ ports: - &q
环境 docker-machine主机:192.168.1.9 docker主机:192.168.1.10 步骤: 安装docker-machine 创建ssh密钥对,实现两主机无密登录 创建docker主机,命名host1 变更docker环境变量 运行容器查看两端是否同步 镜像容器同步测试成功
CentOS下Docker与.netcore(一) 之 安装 CentOS下Docker与.netcore(二) 之 Dockerfile CentOS下Docker与.netcore(三)之 三剑客之一Docker-Compose CentOS下Docker与.netcore(四)之 三剑客之一D
https://blog.csdn.net/wanglei_storage/article/details/77508620 实践中会发现,生产环境中使用单个 Docker 节点是远远不够的,搭建 Docker 集群势在必行。然而,面对 Kubernetes, Mesos 以及 Swarm 等众多容
1.引言 紧接上篇.NET Core容器化@Docker,这一节我们先来介绍如何使用Nginx来完成.NET Core应用的反向代理,然后再介绍多容器应用的部署问题。 2. Why Need Nginx .NET Core中默认的Web Server为Kestrel。 Kestrel is grea
docker rm `docker ps -a | grep Exited | awk '{print $1}'` 删除异常停止的docker容器 docker rmi -f `docker images | grep '<none>' | awk &#3
什么是Docker Compose 在微服务盛行的今天,我们通常是这么定义Compose的:对容器的统一启动和关闭的编排工具。 但是我以前还是有个疑惑,谁会用Compose在一台服务器上部署多个服务呢?干脆直接用单体服务就行了!直到我遇到了以下的一个需求,让我明白了在一台服务器上不得不用多个服务的时
CentOS下Docker与.netcore(一) 之 安装 CentOS下Docker与.netcore(二) 之 Dockerfile CentOS下Docker与.netcore(三)之 三剑客之一Docker-Compose CentOS下Docker与.netcore(四)之 三剑客之一D
很多时候,我们在本地开发过程中程序运行很正常,但是发布到线上之后由于环境的原因,可能会有一些异常。通常我们会通过日志来分析问题,除了日志还有一种常用的调试手段就是:附加进程。 VS中的附加进程非常强大,目前提供了9种常用的附加方式。 在当前.Net Core支持跨平台的大背景下,其中Linux环境和
https://www.cnblogs.com/bigberg/p/8867326.html 一、简介 Docker有个编排工具docker-compose,可以将组成某个应该的多个docker容器编排在一起,同时管理。同样在Swarm集群中,可以使用docker stack 将一组相关联的服务进行
.Net6中想实现对某个网址截屏,可通过Selenium模拟访问网址并实现截图。 实现 安装Nuget包 <PackageReference Include="Selenium.Chrome.WebDriver" Version="85.0.0" /&g
原文 https://www.cnblogs.com/gispathfinder/p/5871043.html 我们在使用docker run创建Docker容器时,可以用--net选项指定容器的网络模式,Docker有以下4种网络模式: host模式,使用--net=host指定。 co