ChatGPT做决策:潜力大,风险也更大
人类的立场偏见和情绪等因素会干扰人们做出客观的判断,而ChatGPT面对同一道德问题也会有双重标准,显示其参与社会道德问题时存在较大的风险;而一旦涉及更多的自主决策,其相关应用的潜力和风险明显会更大。
责任编辑:朱力远
既能搜索信息,也能回答问题,人工智能应用ChatGPT流行之后,包括各领域科学家在内,社会上对ChatGPT这类人工智能应用决策能力的探讨不断拓展,对相关风险的规制也已经开始实践。
2023年7月10日,《生成式人工智能服务管理暂行办法》已经国家发改委、教育部、科技部、工信部、公安部、国家广电总局等多部门同意并公布,自2023年8月15日起施行。管理办法针对生成式人工智能技术提供的文本、图片、音频、视频等内容,对相关服务坚持发展和安全并重、促进创新和依法治理相结合的原则。
事实上,针对这类人工智能应用的决策潜力和风险,一些科学研究已经通过实验等方式对部分场景进行了初步预演。最近,一项医学研究就对比了人工智能应用与医生在回答病人问题上的效果,评价结果显示,人工智能应用的回答收获更多好评,在近六百个评价中,超过78%的评价认为其优于医生的回答。
或可成为新型医疗器械
这项对比研究中的医学问题全部随机选自公共社交媒体论坛,经过认证的医生已经在线回答了这些问题。2022年底,加州大学圣迭戈分校的研究人员利用智能聊天应用ChatGPT也来回答这些病人提出的问题,此时的ChatGPT即当时刚发布的GPT-3.5版本。研究人员随后通过收集评估意见,对相关能力进行了对比。
这项研究2023年4月发表在《美国医学会内科学杂志》(JAMA Internal Medicine),经过比对,ChatGPT和医生所获评价差距极大,从好评度的角度看,相比超过78%的评价认为ChatGPT的回答质量很好,认为医生的回答很好或非常好的比例仅有约2
登录后获取更多权限
校对:星歌