一种有原则的方法来演变网络内容的选择和控制
A principled approach to evolving the selection and control of web content.
在Google I/O大会上,我们宣布了基于我们多年研究成果的新的人工智能产品和实验。我们还谈到了Google致力于以负责任的方式发展人工智能,以最大化对社会的积极影响并解决相关挑战的承诺,这是根据我们的人工智能原则并与我们的客户隐私承诺相一致的。
我们相信每个人都从一个充满活力的内容生态系统中受益。其中关键的因素是网络发布者对其内容拥有选择和控制的权利,并有机会从参与网络生态系统中获得价值。然而,我们认识到现有的网络发布者控制机制是在新的人工智能和研究用例出现之前开发的。
随着新技术的出现,它们为网络社区提供了机会,以推动支持网络未来发展的标准和协议的演进。一个这样的由社区开发的网络标准,robots.txt,在近30年前被创建,已被证明是一种简单透明的方式,供网络发布者控制搜索引擎如何抓取其内容。我们认为,现在是网络和人工智能社区探索其他机器可读手段,以用于新兴人工智能和研究用例的选择和控制的时候了。
今天,我们启动了一场公开讨论,邀请网络和人工智能社区的成员就互补协议的方法发表意见。我们希望来自全球各地的网络发布者、公民社会、学术界和其他领域的广泛声音加入讨论,我们将在接下来的几个月内召集那些有兴趣参与的人。
您可以通过在我们的网站上注册来参加网络和人工智能社区的讨论,我们将很快分享更多关于这个过程的信息。