从过往许多人使用的搜寻引擎服务,系统完成的是将最符合、贴近使用者输入关键字词的网页内容逐一条列,但使用者本身依然要具备内容审视能力,以聊天机器人自然提问互动方式的「搜寻」模式,更凸显使用者必须随时具备「质疑」心态,最终判断内容是否正确还是会落在使用者身上。
日前传出Google内部要求员工必须每天花费2-4的小时,以人力互动方式与日前公布的对话式人工智慧模型「Bard」进行对话,而在进一步说法中更指出,负责Bard项目主管Jack Krawczyk希望Google员工提问个人喜好内容,或是擅长领域等相关问题,并且评估Bard所作回答是否正确,藉此确保回答内容可以令人满意。
从先前Google与微软所作技术展示,以及使用者实际互动体验结果,可以发现结合人工智慧技术的搜寻服务虽然可以很快给出相应解答,但其中可能包含老旧、过时,或是错误内容。
例如Google的新版搜寻服务在解答韦伯太空望远镜相关提问时给出明显错误资讯,而微软的新版Bing搜寻服务在进行过多次数的互动後,就会出现截然不同性格的互动口吻,甚至批评与其互动的使用者。
不过,即便是目前OpenAI快速走红的ChatGPT,其实也会给出错误解答,因此也反应再怎样模仿人类互动口吻,并且能透过自动生成人工智慧技术产生内容的聊天机器人,背後依然取决资讯内容分析、整合,而这些内容多半会取自网路,导致在学习训练比重不足情况下,加上原始取得资讯内容正确与否,就会造成人工智慧总结给出答案产生偏差。
因此,Google内部希望透过有不同喜好、擅长领域的员工与Bard进行互动,并且审视Bard给出答案是否正确,同时也进一步确认Bard所给出答案呈现方式能否让一般人理解、易读,若员工发现Bard给出答案有明显错误、偏差,即可提出反馈意见作为Bard系统修正参考依据。
但是毕竟仅仰赖Google员工进行特定内容互动作为训练的成效依然有限,因此Google未来有可能会透过强化学习与监督式学习方式训练Bard,另一方面也有可能透过过滤训练资料正确与否,内容是否与时俱进,并且以更具结构化形式资料进行训练,藉此提高Bard给出答案的正确性与可靠度。
其实,从过往许多人使用的搜寻引擎服务,系统完成的是将最符合、贴近使用者输入关键字词的网页内容逐一条列,但使用者本身依然要具备内容审视能力,而在目前各家业者开始推行以聊天机器人自然提问互动方式的「搜寻」模式,更凸显使用者必须随时具备「质疑」心态,即便人工智慧能快速汇整、摘要长篇内容重点,或是在更短时间内协助寻找网页资讯,最终判断内容是否正确还是会落在使用者身上,不能仅只是一昧信任人工智慧所给「解答」,因为不一定正确。