栏目分类
发布日期:2025-01-15 16:01 点击次数:142
IT之家 12 月 18 日音问,谷歌通过更新使用战略的花样明确默示,只有有东谈主工监督,客户不错在“高风险”边界(如医疗保健)使用其生成式东谈主工智能器用来作出“自动决议”。
阐明该公司周二发布的《生成式 AI 阻挠使用战略》更新版,客户不错在一定条件下使用谷歌的生成式 AI 作出可能对个东谈主权力产生要紧不利影响的“自动化决议”,举例在服务、住房、保障和社会福利等边界。这些决议只有在某种花样上有东谈主类监督,就被允许扩充。
IT之家注:在东谈主工智能边界,自动化决议是指 AI 系统基于事实或测度数据作出的决议。举例,AI 可能会阐明请求东谈主的数据作出是否批准贷款的决定,大要筛选求职者。
谷歌之前的要求草案默示,触及生成式 AI 的高风险自动化决议应当全面阻挠。但谷歌向外媒 TechCrunch 泄漏,其生成式 AI “本色上从未阻挠”过高风险边界的自动化决议,前提是有东谈主工监督。
谷歌发言东谈主在摄取采访时默示:“东谈主工监督要求一直存在,适用于系数高风险边界。”他补充说:“咱们仅仅对要求进行了从头分类,并更清澈地列举了一些具体例子,标的是让用户愈加明了。”
针对那些影响个东谈主的自动化决议,监管机构对 AI 的潜在偏见默示留情。举例,盘问骄慢,用于审批信用和典质贷款请求的 AI 系统可能会加重历史上存在的敌对问题。
报谈称,因为自动决议系统可能会影响到个体,监管机构对此类东谈主工智能系统的潜在偏见问题默示关注。盘问标明,用于信用和典质贷款审批的东谈主工智能系统可能会加重历史上的敌对问题。