随着AI技术的发展,AI涉及到的伦理和道德及法律风险也越来越引起大众的关注。美国很多人工智能公司已经成立了伦理审查委员会来检查人工智能产品的设计方案是否符合道德,并确保用户的安全和权益收到保护。
作为AI产品经理,设计的产品可能会承担着更高的法律和道德风险。目前很多公司已经意识到AI对人类在道德伦理上的影响并做出举措,在今年的谷歌开发者大会上谷歌就为Google Assistant加入了针对儿童的Pretty please功能,鼓励小孩对进行礼貌提问。
在技术发展的过程中,不可避免会引发一些问题造成用户的不信任。2016年3月,Twitter上线了一款聊天机器人Tay,但是仅在一天的时间里,Tay就在与网民互动过程中学习成为了一个集性别歧视、种族歧视等于一身的“不良少女”。
类似的,虽然淘宝基于大数据的个性化推荐十分精准,但是因为可解释性较差导致很多用户对如此精准的推荐感到十分不安,并认为这种个性化推荐可能侵犯了他们的隐私权。
AI 未来的发展方向可能更应该将更多的决策过程展示出来,让用户理解和明白为什么要做这样的决策,而不应该仅仅是一个黑盒。