在当今数字化的世界里,短文本的使用已成为在线交流的核心。然而,由于这些文本往往缺乏共同的词汇或背景,使得人工智能(AI)在分析时面临诸多挑战。对此,悉尼大学的一名英语文学研究生兼数据科学家贾斯汀・米勒(Justin Miller)提出了一种新方法,利用大型语言模型(LLMs)对短文本进行深入理解和分析。
米勒的研究重点在于如何将大量短文本,如社交媒体个人资料、顾客反馈或与灾难事件相关的在线评论,进行有效的分类。他开发的 AI 工具可以将数以万计的 Twitter 用户个人简介聚类成易于理解的十个类别,这一过程在2020年9月的两天内成功分析了关于美国总统特朗普的近40,000条 Twitter 用户简介。这种分类不仅可以帮助识别用户的职业倾向、政治立场,甚至是他们使用的表情符号。
“这项研究的亮点在于其人本设计的理念。” 米勒表示,使用大型语言模型生成的分类不仅计算效率高,而且能够与人类的直观理解相契合。他的研究还表明,像 ChatGPT 这样的生成式 AI 在某些情况下提供的分类名称比人类审查员更为清晰、一致,尤其是在从背景噪声中辨别有意义的模式时。
米勒的工具具有多种应用潜力。他的研究表明,庞大的数据集可以被简化为易于管理的有意义的组。例如,在关于俄乌战争的项目中,他将超过100万条社交媒体帖子进行了聚类,识别出包括俄罗斯虚假信息运动、动物在人道救援中作为象征的使用等十个不同话题。此外,通过这些聚类,组织、政府和企业可以获得切实可行的见解,帮助做出更明智的决策。
米勒总结道:“这一 AI 双重用途的应用,不仅能减少对昂贵和主观的人类审查的依赖,还为我们提供了一种可扩展的方式来理解大量文本数据。从社交媒体趋势分析到危机监控和客户洞察,这种方法有效结合了机器的效率和人类的理解力,为数据的组织和解释提供了新思路。”