在顶层设计方面,2019年7月,旷视公布了基于企业自身管理标准的《人工智能应用准则》,从正当性、人的监督、技术可靠性和安全性、公平和多样性、问责和及时修正、数据安全与隐私保护六个维度,对人工智能正确有序发展作出明确规范。
与此同时,旷视还参加了多个国家及行业规范标准制定,例如《新一代人工智能治理原则》、《新一代人工智能伦理规范》等,并成为国内率先通过隐私保护国际标准ISO/IEC 27701的人工智能企业。
在内部管理上,旷视主要从企业制度和架构两方面进行管理。
架构:2019年8月,作为业内首个成立"人工智能道德委员会"的AI公司,旷视聚焦于研讨、制定公司相关伦理道德治理的规章与管理机制,并对公司业务中涉及到的重大伦理问题进行决议;
2020年1月,旷视又成立AI治理研究院,旨在联合国内顶尖研究机构,积极探索AI道德伦理与治理工作的落地路径。
制度:除了发布《人工智能应用准则》这类纲领性文件,旷视还出台了《数据分类分级管理规范》、《员工信息安全守则》等细则,在内部形成规范化管理。
与此同时,旷视倡导客户遵循《数据安全声明》、《正确使用人工智能产品倡议书》,形成行业「合力」。
对于技术攻关,旷视目前主要集中在数据安全和隐私保护、算法的安全性、稳健性等问题。
例如,旷视研发的前端图像脱敏方案,是目前业内率先实现在采集端就能完成人脸图像的不可逆脱敏,来加强个人信息保护。
而在AI基础平台研发上,旷视主张通过研发面向数据安全和隐私保护的AI平台,实现从需求提出到交付的全流程一体化数据安全及隐私保护,相关成果将进行试点推广。
值得一提的是,旷视还联合人民智库、中国人工智能产业发展联盟等专业机构、组织,发布"全球十大人工智能治理事件"评选榜单,以议题设置的方式,联动各方对AI治理进行持续关注与深度讨论,通过多元交流,共同推动AI治理走向规范化。
目前,该榜单已持续三届,针对2021年度全球十大人工智能治理事件,来自不同领域的专家表达了类似的观点。
中国信息通信研究院副总工程师、中国人工智能产业发展联盟副秘书长王爱华认为,2021年是全球人工智能治理极具实质性突破的一年,纵观全年的治理事件,全球人工智能治理呈现出"趋实、趋严、趋细"三大特点。
清华大学公共管理学院教授、人工智能国际治理研究院副院长梁正同样表示,人工智能治理已经成为全球共识,且已从理念层面进入到建章立制、落地实施的阶段。
从旷视的人工智能治理探索中不难发现,多数企业采取的是自上而下的方式,即建立规章制度,先保证企业自身的技术、制度合规性,再通过企业实践和行业研讨来共识产业方向。
而在当下的人工智能治理中,自下而上的基于应用主体和用户选择的参与,也成为人工智能治理的一个重要方法。
需要指明的是,当前的AI治理仍然处于探索期,如何引导人工智能进一步规范发展,仍有待市场经济环境下,供给、需求、监管等多方在「磨合」后,达成「共识」。
正如旷视联合创始人兼CEO印奇所言:"AI不仅要在技术创新和应用落地上下功夫,也需在治理上使力气,这离不开所有AI从业者和社会各界的共同努力。"