苹果采取负责任的方式训练我们的人工智能模型
科技巨头苹果公司对其人工智能模型的某些指控做出了回应,称其在设计、模型训练、功能开发和质量评估等每个阶段都采取预防措施,以确定其人工智能工具可能被滥用或导致潜在危害。
该公司在一份技术论文中表示,它将不断主动地“在用户反馈的帮助下改进我们的人工智能工具”。
上个月,Apple Intelligence 宣布将在未来几个月内在 iOS、macOS 和 iPadOS 软件中提供多种生成式 AI 功能。
苹果写道:“预训练数据集包括......我们从出版商处获得许可的数据、精选的公开可用或开源数据集以及我们的网络爬虫 Applebot 抓取的公开可用信息。”
该公司补充道:“鉴于我们注重保护用户隐私,我们注意到数据混合中不包含任何私人 Apple 用户数据。”
根据技术论文,苹果基础模型(AFM)的训练数据是以“负责任”的方式获取的。
Apple Intelligence 每一步设计都秉承公司的核心价值观,并建立在行业领先的隐私保护基础之上。
这家 iPhone 制造商表示:“此外,我们还制定了负责任的人工智能原则来指导我们如何开发人工智能工具以及支撑它们的模型。”
该公司进一步表示,数据混合中不包含任何 Apple 用户的私人数据。
“此外,我们还付出了巨大的努力,从公开数据中排除了粗俗的语言、不安全的材料和个人身份信息。我们还根据许多常见的评估基准进行了严格的净化,”苹果公司详细说明。
为了训练其人工智能模型,该公司使用其网络爬虫 Applebot 抓取公开信息,并“尊重网络出版商使用标准 robots. 指令选择退出 Applebot 的权利”。
“我们采取措施排除包含脏话的页面,并应用过滤器删除某些类别的个人身份信息 (PII)。其余文档随后通过执行质量过滤和纯文本提取的管道进行处理,”苹果强调道。
免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。