来自槟城的大马学者吴惠雯在AI技术取得新突破,其做为主要贡献者开发的TLM软件,能增加ChatGPT可信度。
Trustworthy Language Model(TLM)能帮助识别和缓解大型语言模型(LLM)的幻觉,增加ChatGPT可信度,有关技术已广泛应用于多个行业。
在美国留学和工作的吴惠雯接受本报通讯访问时,用通俗易懂的例子说明TLM可信度估计如何提供帮助增加ChatGPT可信度。
“想象你在计划一次旅行,并询问ChatGPT推荐景点。ChatGPT建议了一个博物馆、一个公园和一家据说很有名的餐厅。TLM为每个建议提供可信度评分,博物馆和公园的评分很高,但餐厅的评分很低。由于评分较低,你进行了更多的调查,发现那家餐厅实际上在一年前就关闭了。在TLM的指导下,你避免了潜在的错误,并可以专注于可靠的推荐,让你的旅行更加顺利。”
她说,ChatGPT拥有广泛的多主题知识,界面简洁易用是其优点。
“但他也有缺点,比如ChatGPT有时可能会给出错误或过时的回答。”
她说,因为它缺乏事实核查或验证输出准确性的能力
ChatGPT可能会“幻觉”,即生成错误的、无意义的或完全虚构的信息。这些幻觉和错误的陈述可能会削弱用户对ChatGPT/大语言模型(LLM)的信任,因为它在重要情况下可能变得不可靠。
她说,TLM在这方面可以补足。TLM可以为每个LLM响应添加了可信度评分,给用户一个了解哪些回应是可靠的,哪些需要额外审查和进一步事实核查的参考。
“它可以鼓励用户对ChatGPT的回应进行批判性思考,而不是盲目相信ChatGPT总是正确的。这一额外层次可以提高公众对ChatGPT的信任,因为人们现在可以更好地区分ChatGPT何时给出正确或错误的回应。”
吴惠雯小学就读于槟华小学(2006-2011年),在锺灵独中完成学学课程后,继续在山地国际学校(Uplands)就读,并于2018-2022年在纽约大学学习数学。
她在纽约大学毕业后,一直留在美国在Cleanlab工作至今。
吴惠雯是Cleanlab开源软件的主要贡献者之一。目前是最受欢迎的数据中心人工智能库,被谷歌、腾讯(Jarvis Lab)、BBVA等使用。
Cleanlab在2024年《福布斯》AI 50名单中被列入
Cleanlab在2024年CB Insights AI 100名单中被列入(前100名AI公司)。
TLM的开发者有四个人,吴惠雯她负责机器学习与人工智能算法研究,并致力于开发方法以最佳估计任何LLM响应的可靠性。
她在人工智能方面的研究成果,包括发布了2篇研究论文:
1)CROWDLAB:监督学习推断共识标签和多注释者数据的质量评分(CROWDLAB: Supervised learning to infer consensus labels and quality scores for data with multiple annotators) 已被接受至2022年NeurIPS人机交互学习研讨会开发了新颖的算法,用于推断多注释者标注数据的标签和注释者质量。
2)ActiveLab:通过多注释者进行再标注的主动学习
(ActiveLab: Active Learning with Re-Labeling by Multiple Annotators)已被接受至2023年ICLR可信机器学习研讨会
开发了确定如何高效收集数据标签的方法,从而以更少的注释训练出更准确的模型。