人工智能能否变成现实中的终结者?
人工智能是否能成为现实中的终结者?
“我们需要对如何开发和使用人工智能保持谨慎。我们需要确保它被用于善意而非邪恶。我们需要确保它被用来造福人类而非伤害人类。”
— 特斯拉和SpaceX首席执行官埃隆·马斯克
你是否曾想知道下面的事件为什么会发生 🤔❓
- 在2016年,微软在Twitter上发布了一个名为Tay的聊天机器人,它的设计初衷是从与之交互的人身上学习,但很快就变得种族主义和冒犯性。微软不得不在仅仅16小时之后关闭Tay。
- 在2019年,Uber的自动驾驶汽车在亚利桑那州撞死了一名行人,这是已知的第一起涉及自动驾驶汽车的致命事故,引发了对安全性以及对其进行更多限制和测试的担忧。
- 在2021年,纽约市警察局的面部识别系统发现错误地将黑人和西班牙裔的匹配率比白人高,从而引入了种族偏见。
- 在2022年,Meta的聊天机器人被发现生成冒犯性内容和阴谋论,引发了关于利用人工智能传播错误信息和仇恨的担忧。
这只是一些清楚表明在构建此类人工智能系统时采取的不负责任措施的例子。
那么”RESPONSIBLE AI”就发挥了作用🤓!!
负责任的人工智能,或者你也可以称之为道德人工智能,只是一种负责地开发人工智能系统的实践,以确保整个系统公正、透明,并考虑其对道德和社会经济事务的潜在影响。
- 使用提示和技巧对文本分类任务进行即时工程
- 认识POCO:一种新颖的人工智能框架,用于3D人体姿势和形状估计
- 这篇AI研究提出了FireAct:一种新颖的人工智能方法,利用来自多个任务和代理方法的轨迹来微调语言模型
它包含一定的准则、实践和原则,以使系统对公众有益,并减少其带来的风险。
一个类比来说明道德人工智能的重要性🟰
想象一下,如果您在建造一座房子,您会考虑安全性、安全、舒适和经济实惠等因素,同时考虑到公平正义…