近日,微软升级了 AI 语言模型 GPT-3,并将其内置在 Azure 云套件中开放给商业客户。
GPT-3 由 AI 研究组织 OpenAI 于 2020 年开发,同年 9 月,微软取得 GPT-3 的独家授权。据了解,微软曾在 2019 年向 OpenAI 进行投资,并成为其唯一的云提供商,两者将一同为 Azure 云平台开发 AI 技术。
GPT-3 能够对文字片段(比如邮件或诗歌)进行续写,同时,利用其分析语言的能力也能够承担总结文档、分析文本情绪、为项目和故事生成想法等任务,其可以说是现今最好的新一代 AI 语言模型。
微软举了一个 GPT-3 的应用示例。
体育赛事经营者可以为球迷构建一个应用程序,提供解说推理、比赛亮点总结和实时分析。宣传运营团队也能利用 GPT-3 来写原创的社交媒体或博客文章,从而以较快的速度与粉丝们互动交流。
图 | 利用 GPT-3 为体育赛事提供内容(来源:微软)
去年,GPT-3 通过 OpenAI 管理的 API 已公开提供,但一些客户仍需要额外的安全层、访问管理、专用网络、数据处理保护或扩展容量等。为了满足这些企业客户的需求,微软将 OpenAI 的 API 和 Azure 企业级别的安全性、合规性、数据隐私和区域可用性结合在一起,对 GPT-3 进行了改进升级。
“GPT-3 这个强大的模型本身就是平台,它既强大,又简单。企业客户只需给出几个示例,就能获得他们需要的结果,而无需整个数据科学团队、数以千计的 GPU 和各种资源来培训模型。我想,这就是为什么企业会对 GPT-3 产生巨大兴趣的原因。而我们其实才进入一个开始阶段,即确定 GPT-3 的能力和潜力是什么。”微软公司副总裁埃里克·博伊德(Eric Boyd)表示。
OpenAI 的 CEO 山姆·奥特曼(Sam Altman)说,GPT-3 可定制处理各种需要深刻理解语言的使用案例,不管是将自然语言转换为软件代码,还是对大量文本进行总结和生成问题答案,它都能胜任。随着更多人的访问和使用,GPT-3 模型的能力会变得越来越强,以后用户可以用很简单,甚至是很模糊的语言来发出请求,而软件可以成功对该请求进行执行。
图 | 动态语言模型(来源:微软)
不过,对于 GPT-3 等大型 AI 语言模型,仍有一些不同的声音,认为它们存在重大的问题。
这些声音认为,这类模型所产生的内容大部分都是 “垃圾”,仍需要人类来区分 “好” 与 “坏”。而且,AI 会产出许多陈旧的偏见内容,比如,性别歧视、种族主义、将穆斯林与暴力联系在一起等等。当我们在使用AI模型的时候,这些不友善的观念,肯定会伤害到用户。
针对可能存在的问题,微软目前也确实采取了一些保障措施。
微软 Azure AI 的负责人莎拉·伯德(Sarah Bird)说,“由于这些大型语言模型是在大量互联网数据上训练的,这些数据可能包含粗俗语言、种族成见、个人识别信息等内容,因此为企业客户提供保障措施,帮助防止 GPT-3 被用于有害目的或产生不良结果非常重要。”
据了解,微软采取的措施包括仅允许被微软邀请的客户使用 Azure 云上的 GPT-3,同时审查客户的使用案例,并提供过滤工具,以防止不当内容的输出,客户也能够根据业务需求定制这些过滤器。此外,微软还将提供安全监控和分析工具,以识别可能的滥用行为。
然而,这些限制是否有效目前尚不清楚。因为,当被问到过滤工具究竟如何工作,或者是否有证据表明其可以减少 GPT-3 的不当输出时,微软并没有正面回答这个问题。
华盛顿大学计算语言学教授艾米丽•本德(Emily Bender)曾撰写过大量关于大型 AI 语言模型的文章,她说,微软做出的保障措施缺乏实质内容,且其发布的新闻稿中也有指出,GPT-3 的培训数据可能含有关于种族成见等各类内容。
本德指出,微软推出的 GPT-3 并不符合它自己设定的人工智能道德准则。这些准则中其中有一条是透明度原则,也就是人工智能应该是可以理解的。而 GPT-3 训练数据的具体构成仍是一个谜。微软声称这个系统 “理解” 了语言,而这引起许多专家的强烈质疑。
“我希望微软不是为了销售 GPT-3 而在进行人工智能炒作。最后,尽管 GPT-3 过滤器的功能还未经证实,但微软如果仔细选择客户就可以避免很多麻烦。大型 AI 语言模型当然是有用的,只要其输出可通过人类检查。” 本德说道。
-End-
参考:https://www.theverge.com/2021/11/2/22758963/microsoft-openai-gpt-3-azure-cloud-service-ai-language?scrolla=5eb6d68b7fedc32c19ef33b4https://blogs.microsoft.com/ai/new-azure-openai-service/