如何解决无法在AWS Lambda层中导入熊猫 更新,创建自定义图层
我将python熊猫上传到Lambda,当我运行Lambda时,看到以下错误:
"errorMessage": "Unable to import module 'lambda_function': C extension: No module named 'pandas._libs.interval' not built. If you want to import pandas from the source directory,you may need to run 'python setup.py build_ext --inplace --force' to build the C extensions first."
我真的不确定这里应该发生什么。但是为了获得更多的上下文,我创建了一个名为“ python”的目录,然后在终端上运行以下行
python3.8 -m pip install pandas -t .
然后我压缩“ python”目录,然后创建一个新层并上传zip文件。
努力寻找我所追求的目标。
解决方法
您是否考虑过使用pandas
的公共可用层,例如从这个流行的存储库:keithrozario/Klayers?
例如,适用于python 3.8的层的列表是us-east-1
的{{3}}。
在这种情况下,对于us-east-1
,您可以使用以下方法添加pandas
层:
arn:aws:lambda:us-east-1:770693421928:layer:Klayers-python38-pandas:16
更新,创建自定义图层
我刚刚使用pandas
和xlrd
创建了自定义图层,并可以确认它是否有效。
所使用的技术包括最近的 AWS博客中所述的 docker工具:
因此,对于这个问题,我验证了,如下所示:
-
创建空文件夹,例如
mylayer
。 -
转到该文件夹并创建内容为{p>的
requirements.txt
文件
pandas
xlrd
- 运行以下docker命令:
docker run -v "$PWD":/var/task "lambci/lambda:build-python3.8" /bin/sh -c "pip install -r requirements.txt -t python/lib/python3.8/site-packages/; exit"
- 以zip格式创建图层:
zip -r mypandaslayer.zip python > /dev/null
-
在AWS控制台中基于
mypandaslayer.zip
创建lambda层。不要忘记为Compatible runtimes
指定python3.8
。 -
使用以下lambda函数测试lambda中的图层:
import json
import pandas
import xlrd
def lambda_handler(event,context):
print(dir(pandas))
print(dir(xlrd))
该函数正确执行:
['BooleanDtype','Categorical','CategoricalDtype','CategoricalIndex','DataFrame','DateOffset','DatetimeIndex','DatetimeTZDtype','ExcelFile','ExcelWriter','Float64Index','Grouper','HDFStore','Index','IndexSlice','Int16Dtype','Int32Dtype','Int64Dtype','Int64Index','Int8Dtype','Interval','IntervalDtype','IntervalIndex','MultiIndex','NA','NaT','NamedAgg','Period','PeriodDtype','PeriodIndex','RangeIndex','Series','SparseDtype','StringDtype','Timedelta','TimedeltaIndex','Timestamp','UInt16Dtype','UInt32Dtype','UInt64Dtype','UInt64Index','UInt8Dtype','__builtins__','__cached__','__doc__','__docformat__','__file__','__getattr__','__git_version__','__loader__','__name__','__package__','__path__','__spec__','__version__','_config','_hashtable','_is_numpy_dev','_lib','_libs','_np_version_under1p16','_np_version_under1p17','_np_version_under1p18','_testing','_tslib','_typing','_version','api','array','arrays','bdate_range','compat','concat','core','crosstab','cut','date_range','describe_option','errors','eval','factorize','get_dummies','get_option','infer_freq','interval_range','io','isna','isnull','json_normalize','lreshape','melt','merge','merge_asof','merge_ordered','notna','notnull','offsets','option_context','options','pandas','period_range','pivot','pivot_table','plotting','qcut','read_clipboard','read_csv','read_excel','read_feather','read_fwf','read_gbq','read_hdf','read_html','read_json','read_orc','read_parquet','read_pickle','read_sas','read_spss','read_sql','read_sql_query','read_sql_table','read_stata','read_table','reset_option','set_eng_float_format','set_option','show_versions','test','testing','timedelta_range','to_datetime','to_numeric','to_pickle','to_timedelta','tseries','unique','util','value_counts','wide_to_long']
['Book','FMLA_TYPE_ARRAY','FMLA_TYPE_CELL','FMLA_TYPE_COND_FMT','FMLA_TYPE_DATA_VAL','FMLA_TYPE_NAME','FMLA_TYPE_SHARED','MMAP_AVAILABLE','Operand','Ref3D','USE_MMAP','X12Book','XLDateError','XLRDError','XL_CELL_BLANK','XL_CELL_BOOLEAN','XL_CELL_DATE','XL_CELL_EMPTY','XL_CELL_ERROR','XL_CELL_NUMBER','XL_CELL_TEXT','__VERSION__','biff_text_from_num','biffh','book','cellname','cellnameabs','colname','compdoc','count_records','decompile_formula','dump','dump_formula','empty_cell','error_text_from_code','evaluate_name_formula','formatting','formula','info','mmap','oBOOL','oERR','oNUM','oREF','oREL','oSTRG','oUNK','okind_dict','open_workbook','os','pprint','rangename3d','rangename3drel','sheet','sys','timemachine','xldate','xldate_as_datetime','xldate_as_tuple','xlsx','zipfile']
,
您也可以尝试使用轮文件,而不是通过 pip 安装 Pandas。这对我有用。只需下载所需的wheel文件,并将文件解压到您计划作为层上传的目录中,压缩该目录,然后将其上传到lambda层。
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。