除了为 Android 设备推出新的手势驱动搜索功能外,谷歌今天还在 Google Lens 的视觉搜索功能中引入了人工智能驱动的新功能。从今天开始,用户将能够通过将相机对准镜头或上传照片或屏幕截图到 Lens,然后通过生成式人工智能提问来获取答案。
这一功能是对 Lens 多重搜索功能的更新,允许用户同时使用文本和图像进行搜索。以往,这类搜索通常会将用户导向其他视觉匹配,但在今天的发布中,用户将获得由人工智能提供的结果,同时提供更深入的见解。
例如,谷歌建议此功能可用于通过拍摄植物照片并询问“我该何时浇水?”来获取有关植物的详细信息。它不仅仅向用户展示其他植物图像,还能够识别植物并告诉用户应该多久浇水一次,例如“每两周一次”。此功能依赖于从网络获取的信息,包括在网站、产品网站和视频中找到的信息。
此功能还可以与谷歌的新搜索手势(称为“圈搜索”)配合使用。这意味着用户可以通过手势启动这些生成式人工智能查询,然后对已圈出、涂写或以其他方式指示有兴趣了解更多信息的项目提出问题。
然而,谷歌澄清说,虽然 Lens 多重搜索功能提供了生成式人工智能的见解,但它与谷歌实验性的 GenAI 搜索 SGE(搜索生成体验)不是同一产品,后者仍然是选择性的加入。
从今天开始,基于人工智能的多重搜索概述将在美国所有英语用户中推出。与谷歌的其他一些人工智能实验不同,此功能并不局限于 Google Labs。要使用该功能,用户只需点击 iOS 或 Android 版 Google 搜索应用程序中的 Lens 相机图标,或者在 Android 手机搜索框中点击。
与 Circle to Search 类似,这一新增功能旨在保持 Google 搜索在人工智能时代的相关性。尽管当今的网络充斥着针对 SEO 优化的垃圾,但 Circle to Search 和 Lens 中相邻的人工智能功能旨在通过利用知识网络(包括 Google 索引中的许多网页)来改善搜索结果,但以不同的格式呈现。
尽管如此,依赖人工智能意味着答案可能并不总是准确或相关的。网页不是百科全书,因此答案的准确性取决于底层源材料以及人工智能在没有实际答案时回答问题的能力。
谷歌指出,其 GenAI 产品(例如谷歌搜索生成体验)将引用其来源,以允许用户对其答案进行事实核查。尽管 SGE 将留在实验室,但谷歌表示,它将开始在相关的情况下更广泛地引入生成式人工智能的进步,就像它现在在多搜索结果方面所做的那样。
Lens 中多重搜索的人工智能概述于今天发布,而基于手势的 Circle to Search 将于 1 月 31 日发布。
本文来自投稿,不代表TePhone特锋手机网立场,如若转载,请注明出处:https://www.tephone.com/article/5902