在创新与管理的灰色地带,谁能被称为理解AI的律师?

全文共2322字,预计学习时长7分钟

在创新与管理的灰色地带,谁能被称为理解AI的律师?

图源:Unsplash

伴随人工智能热潮而生的是许多关于人工智能算法的负面报道。

不管是诸如《终极者》、《黑客帝国》等电影里未来人工智能与机器人会消灭、奴役和取代人类,还是现实中对“第一个人工智能公民Sophia”的冷嘲热讽——有评论说它实际上只不过是一个奇怪的木偶脑袋挂在一个聊天机器人上。人工智能似乎已经成为“恐怖、歧视、偏见”的代名词。

而当谈及到帮助我们决策的人工智能系统中所存在的固有偏见时,人们都持有不同观点。

在创新与管理的灰色地带,谁能被称为理解AI的律师?

图源:Unsplash

人们理所当然地认为人工智能算法对种族、性别甚至年龄存在偏见,然后对其指手画脚,批评指责。

《新科学家》上发表的一篇文章指出现有人工智能系统存在的五大偏见会潜移默化地影响人们的真实生活。其中最家喻户晓的便是揭露COMPAS丑闻。美国推出COMPAS算法原旨在预测罪犯再犯的可能性从而引导判刑。但根据ProPublica分析,黑色皮肤的罪犯极大可能会成为惯犯。

但是人类才是这些算法的创造者。算法本身不是为了歧视而存在。

通常情况下是算法的使用引起了偏见。并且,算法所研究的数据也是偏见的来源。大多数情形下是没有完美无瑕的算法,尤其是在社会情境中。

人们试图将圆钉完美嵌入椭圆的洞中时,偏差便由此产生。而在人工智能系统中,现在的人工智能能力还有不足之处。

在此状况下,我们需要什么?

答案是理解。

在创新与管理的灰色地带,谁能被称为理解AI的律师?

图源:pexels

当政治家为规章制度的提出苦思冥想时,律师和调查员需要与技术专家合作,从而理解创新的全部过程。他们不需要知道细枝末节,但他们需要知道处理主要问题和更大层面的图景。

律师需要理解力就像人工智能需要软件产品经理。这些软件通常影响着人们的生活。

中国的社会信用体系印证了人工智能对人们生活有许多影响。它改变了社会结构和人们的生活,也调整了商业市场的架构。而在西方,在不断创新下,律师必须学习处理合同之外的复杂情况以及描绘算法的言语。

他们必须真正抓住算法想要完成的基本概念,也就是算法的初衷、真正意图和影响。

这整个过程就像用法律去评判个人。人工智能系统会成为个体生物。但是他们不像人类那样能够更高维度地思考,目前他们只是为了特定目的以及执行特定功能而存在。

在此前提下,人工智能系统的意图来源于创造、谋划以及使用它的组织。而当此模式添加了人工智能算法的第三方供应商时,整个局势一般会复杂许多。整个图景包含多方组织,有设计算法的,使用算法研发软件应用的以及将软件用于商业用途的公司企业的。如果将其中的公司企业变为政府部门,整个图景会变得愈加复杂。

在表面的数学和模式的背后,算法实际上还有其他目标需要完成。而在运用算法的软件中,这些目标往往淹没在一堆创新点中。在软件后紧跟着的商业流程中,原来意图被改变的情况随处可见。

创新的发展速度比之前更快速。大多数时候,设计新算法的技术专家在人们追逐商业需求的时候正在进行算法的优化。而用于商业的算法有可能会将原来的意图大大曲解。

这就是许多灰色地带产生的原因。在这些灰色领域,法律必须和创新合作,一同前进。

在创新与管理的灰色地带,谁能被称为理解AI的律师?

图源:Unsplash

法律(在运用和执行过程中)需要灵活性。大多数人不会将法律和灵活联系到一起,但是如今,人工智能刚诞生不久,法律还不足以解释其中发现的灰色地带。

没有规章制度和法律秩序的约束会带来混乱,有一些总比没有要好。但是,规章制度的制定要小心,不可阻碍科技创新的进程。

这就是为什么需要科技专家和律师合作了。两者的态度不是互相抵触,合作的目的不在控制世界。科技公司也不在宣扬自己对数据的主导权。

我们同在不稳定的世界当中。人们的数据都放在一起。当安全被侵犯,我们面临同样程度的风险;当隐私法条被违反,我们会遭到同样程度的影响。

关键是我们要如何合作?

在西方,整个法律体系在创新发展的过程中不断被检测。当法律和创新产生冲突的时候,修订规章制度并且执行新法条的机会就来了。

人工智能时代的合作模式就像Google’s AI for Social Good这样的项目以及AINow研讨会,把科技专家、公司、社会科学家、政府、律师和管理者聚集到一起。

尽管媒体和媒体机构可能已经找出了问题,认识到问题所在并让人们去思考这些问题,但是需要和更大的组织机构合作,可以聚集技术专家、公司和政府,从而尽力解决更深层次的问题。

如果不与公司、政府和企业一道深入地解决问题,那么当人们受其影响时,问题便会愈发严重。

当问题被放大,灰色地带会比问题本身还要大。

在创新与管理的灰色地带,谁能被称为理解AI的律师?

图源:pexels

在人工智能时代,律师的工作十分艰巨。

当人工智能领域的规章制度得到规范后,律师们将在其中的灰色领域起到至关重要的作用。他们是企业、技术专家和政府之间合作的关键,不仅充当调和矛盾的手,也是对现有法律提出改变的中坚力量。

FPF刚刚发布了人工智能和机器学习的隐私专家指南。这对律师学习人工智能和机器学习,可谓是不错的开始。

律师们可以从中学习到人工智能科技的巧妙之处,从而能够理解创新与管理需要达到平衡的灰色地带。

更好的与技术专家合作,共创我们与人工智能和谐美好共存的明天。

在创新与管理的灰色地带,谁能被称为理解AI的律师?

在创新与管理的灰色地带,谁能被称为理解AI的律师?

留言点赞关注

我们一起分享AI学习与发展的干货

如转载,请后台留言,遵守转载规范

相关推荐