随着GPT-4这样的大型语言模型迅速提高精确性,能够更准确、前后一致地编码和计算数字,“AI将取代人类工作”可能很快走进现实!
来自OpenAI团队和宾夕法尼亚大学的研究人员发表的文章认为,在美国高达80%的工作会受到GPT-4语言模型的冲击,并且受影响程度最深的岗位里不乏一些收入较高的“体面工作”。
↑GPT-4创意图 据视觉中国
AI影响面大
高薪岗位受冲击,数学家记者等职业“风险高”
这篇在arXiv网站预发布的论文得出结论认为,80%的美国劳动力至少有10%的任务会受到类似于GPT-4这样的大语言模型影响,此外有大约19%的美国员工被AI取代的可能性较高,意味着其至少50%的日常工作任务可以被大语言模型较好地完成。
OpenAI团队写道,一些高收入工作面临被AI取代的风险更大,但几乎所有行业都逃不过人工智能浪潮的席卷。论文认为大语言模型将成为通用技术,像蒸汽机或印刷机一样完全改变人类社会的面貌。
“我们的研究结果表明,科学精神和批判性思维在工作中的重要性与面对AI的风险呈强烈负相关,这表明需要这些技能的职业不太可能受到当前AI大语言模型的影响。”研究人员写道,“相反地,编程和写作技能与风险指数呈正相关,这意味着涉及这些技能的职业更容易受到AI大语言模型的影响。”
被取代最高的职业包括数学家、报税员、作家、网页设计师、会计师、记者和法律秘书。AI的能力与人差异最大(即不太可能受AI大语言模型影响)的职业包括平面设计师、搜索营销策略师和财务经理。研究人员还列出AI对不同行业的整体预期影响,其中影响最大的是数据处理服务、信息服务、出版业和保险公司,而影响最小的是食品制造、木制品制造和农业、林业相关活动。
研究人员使用美国职业数据库找出1016个具有标准化描述的职业,以确定每个职业所包含的日常任务并对此进行测量。然后研究者分别收集了人类的工作和GPT-4生成的注释,进行对比。
衡量AI能否取代人类的标准是,直接访问GPT-4或采用GPT大模型辅助驱动的系统是否会将人类执行特定任务所需的时间减少至少50%。如果AI介入,可以将完成任务所需的时间减少至少一半,同时保持高质量的工作水平,那这部分工作就被研究者判定为可以由AI完成。
研究人员也承认他们的研究存在局限性,因为进行标注对比的人员并不熟悉某些被测量的职业。另一个限制因素包括GPT-4对提示语的措辞很敏感,有时会编造虚假信息,因此其输出的不一定是最终的真相。论文也指出OpenAI本身作为一家开发人工智能模型的营利性公司,它有很高的动机将其产品描绘成颠覆行业的自动化工具,最终使投资人受益。
尽管如此,该报告还是认为AI大语言模型将很快成为一种常用工具。
“我们的分析表明,像GPT-4这样的大语言模型造成的影响可能是普遍的,模型的能力会随着时间的推移不断提高。但即使我们今天停止新能力的开发,它们不断增长的经济影响预计也会持续。”
AI进入医疗领域
可帮医生减少笔记时间,但有时“胡言乱语”
谷歌和微软已经宣布,他们将在办公产品(如电子邮件、文档)和搜索引擎中整合人工智能。AI成为生产工具的一部分这件事不仅发生在文职领域,也深入了与人体健康直接相关的医疗领域。
总部位于匹兹堡的Abridge和总部位于旧金山的Syntegra这两家医疗保健初创公司将生成式人工智能融合在产品应用中。目前在医疗保健领域,人工智能只被谨慎地用于最安全、最准确的用途。
堪萨斯大学卫生系统正在推出AI在医疗保健领域最早的大规模应用之一。该校首席医疗信息学官格列格里博士说,医疗中心正在向他们的2000多名医生和其他医务支持人员提供Abridge开发的工具,使用AI技术从患者就诊期间录下的音频中提取关键信息,创建医疗记录摘要。据格列格里博士介绍,这有助于医生减少他们花在笔记上的时间,每天最高可以节省两个多小时。
匹兹堡大学医学中心首席医学信息官巴特博士说,对于许多医院领导者来说,减轻医生的文档工作负担是重中之重。他说该机构在疫情爆发后开始增加对Abridge工具的使用,用低成本的方法创建初版的病例。
另一家初创企业Syntegra的技术正在接受杨森制药的测试,杨森是医疗保健巨头强生公司旗下的一家制药公司。杨森的证据研究负责人塞巴斯蒂安·克洛斯表示,Syntegra用AI技术生成的合成数据与真实患者记录不同,不受到欧洲隐私法的约束。欧盟法律允许总部位于比利时的杨森公司访问该数据并回答研究问题。
克洛斯表示,AI合成数据已由杨森的数据科学家根据真实数据情况进行了验证。合成数据的使用对于研究不太常见的疾病特别有用,因为在这些疾病中很难收集到足够多的患者数据。
市场研究和咨询公司Gartner负责医疗保健技术的分析师克里布斯表示,一般来说辅助文档工作和合成数据在医疗保健领域应用生成人工智能方面被认为风险较低,因为它们对患者身体的直接影响较小。
克里布斯表示,总有一天AI技术可以改变人们诊断和治疗疾病的方式。但是在此之前,医疗行业在很大程度上对使用生成式AI诊断患者或直接提供医疗服务持谨慎态度。
一些医疗保健专家认为,AI技术有时会“胡言乱语”编造失实答案,或在没有收集到足够信息时就做出反应,这使得它在大多数医疗环境中使用的风险太大。