如何解决Azure 搜索 - 亮点 - 在图像中定位
只是在此处寻找有关方法的指导或什至大纲。
我正在使用 azure 搜索对一批 pdf 进行 OCR。我打开了点击突出显示,我成功地将结果返回到那里,我正在为最终用户循环/显示在我的视图中。我正在考虑扩展该功能以显示 pdf 图像,并像 JFK azure 示例中那样突出显示图像本身。我不擅长反应,似乎在那里迷路了。
我假设我需要使用创建的 normalized_images 将 OCR 图像保存到数据存储中以供参考?我在本地有 pdf 可以加载,但假设 OCR 图像可能不同。已启用 GeneratedNormalizedImagesPerPage 并启用在我的存储帐户中创建文件的缓存。
然后我假设我需要拉相关图像,显示它,使用突出显示结果并在检测到短语的地方拉出相应的边界框?这种方法的问题在于,我没有看到高亮命中与命中位置(边界框)之间的任何关联,也没有看到命中所在的相关图像文件。
这里的方法可能还有很长的路要走,但感谢任何指导。
编辑 1 我确实注意到 JFK 示例中此页面上的项目:https://github.com/microsoft/AzureSearch_JFK_Files/tree/master/JfkWebApiSkills/JfkWebApiSkills 尝试将 ImageStore(因此它们存储在我的存储帐户中)和 HocrGenerator(似乎处理文档中的点)复制到我的索引技能集中是一种方法吗?
解决方法
这里有几个步骤:
-
您需要将 OCR 技能中的 layoutText 保存在 UI 可以访问的位置。 JFK Files demo 将其转换为 HOCR(以显示在 UI 中)并将其作为索引中的字段保存在索引中,以便在搜索结果中检索它。 HOCR 不是必需的,您可能会发现使用 knowlege store object projection 将布局存储在 blob 中更有效。
-
使用 file projection into the knowledge store 将提取的图像保存到 blob 存储中。请记住,图像可能会在此过程中调整大小,并且坐标将与保存到商店的调整大小的图像相匹配。如果要将坐标映射到原始图像,请参阅 this。
-
在搜索时,将突出显示映射到元数据。您将在 nodejs 前端找到此代码,但是通过遵循代码 the original demo 在 here 中遵循可能更简单。本质上,您只需在元数据中找到第一次出现的突出显示的词,显示相关图像,并计算该词的边界区域。
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。