7月6日至7月8日,2023世界人工智能大会在上海举办。在本届大会评选出的九大镇馆之宝中,亚马逊的“Amazon Bedrock”就位列其中。据悉,Amazon Bedrock是亚马逊云科技推出的一项完全托管的生成式AI服务,通过API提供来自领先的AI初创公司和亚马逊自研的基础模型,帮助客户便捷安全地构建和扩展生成式AI应用。
7月6日晚间,亚马逊云科技生成式AI产品研究院院长Sherry Marcus接受了每日经济新闻在内的媒体采访。
目前,不少大模型的参数级别已经达到千亿级别。那么,是否参数级别越高越好呢?此外,亚马逊的大模型是否开源呢?
Sherry Marcus回复记者表示:“首先,亚马逊自研Titan模型不是开源的。关于参数数量是否代表模型好坏,这个问题确实有意思。实际上,这取决于具体情况。根据文献当中所记载的,如果你使用大语言模型对这些数据进行训练,关键在于使用的数据质量。如果只是使用了网络上的一些数据,那么即便使用了非常大的模型,可能最后的准确度并不会很理想。相比来说,如果使用的是相对比较小的模型,但使用的是高质量数据,可能结果未必会输给前者。但是如果说能够用一些高质量的数据,不仅有网络上的数据,还有课本上数据,还有科学数据,即便使用小的模型也能够获得比较高的准确度。”
此外,目前国际上有很多排行榜,这些排行榜对亚马逊的意义又是什么呢?Sherry Marcus认为:“现在有很多的LLM排行榜,这些排行榜评估模型的好坏需要具备出色的性能。然而,这些评估通常是基于特定的案例和任务。我们认为这些排行榜可能展示了模型在特定训练任务上的表现,但并不代表模型的全部价值。我们的观点是,在将这些模型应用于客户的数据之后,才能真正评判其结果所在。”
“我相信未来的语言模型会变得更庞大,也会有更多不同的模型出来,包括多模态的模型,它们使用了不同的数据集。也会有更多量身定制的模型涌现。另外,我们对于如何在特定商业中更好地使用这些模型,也将有更深入的理解。”Sherry Marcus补充表示。
值得注意的是,亚马逊云科技也在自己的平台上提供第三方的模型。那么,在第三方模型的安全性方面,亚马逊是如何考虑的?此外,如何跟模型提供者进行安全责任的划分?
对此,Sherry Marcus认为:“如果客户使用第三方的模型,这些数据是存储在亚马逊云科技的EC2的服务器上面的,因此数据是比较安全的。”
关于责任划分的问题,Sherry Marcus表示:“第三方的模型提供商负责确保准确性和训练结果的质量,而亚马逊负责的是基础架构和模型相关的数据方面。因此,我们与第三方共同承担模型的责任,就是安全责任共担模型。”