了解支持新技术的政策、道德和监管问题

Content Team 3年前
了解支持新技术的政策、道德和监管问题

由马耳他大学MDIA主席兼DLT主任Joshua Ellul博士撰文。在今年晚些时候的《Block》杂志秋季版中与他见面。

在过去的几年里,我们看到围绕人工智能(AI)、区块链、云计算、数据科学和量子计算和通信的兴趣(和炒作)激增。这些(和其他)技术正在帮助塑造一个新世界。一个可以:(A)让通常需要人类完成的任务更加自动化;(B)提供更多的透明度和保障;(C)以最小的前期成本;(D)用于各种不同的领域;(Q)以前所未有的速度和距离;最终,(Y)让受益。

这样的好处经常被宣传,但你在这个新世界中的地位却没有被充分讨论。下面将讨论一些将影响社会的问题。

如果你是一名技术人员,你可能对即将到来的事情有很好的把握。无论你是从事这些技术的核心开发工作,需要你进行潜在的研究以熟悉理论基础,还是你将使用这些技术开发应用程序,你可能正在等待(或已经在使用)新的框架和库,这些框架和库隐藏了技术的复杂性,使你能够专注于手头的应用程序。

然而,有一个新的方面将要求技术人员做得越来越多,那就是与其他学科的专业人士接触。无论是讨论与各自业务领域相关的具体问题,还是与法律专业人士就技术架构选项和决策进行辩论,这些选项和决策可能需要遵循(或挑战)各种监管和合规性要求,甚至是伦理学家和不同的利益相关者,当涉及到本质上需要道德考虑的应用领域时,他们会就实施选项进行辩论。

josh ellul除了那些无休止地致力于实施各种解决方案,以自动化和增强各种任务并提供新型服务的技术人员,还有各种专业人士。这些专业人员在确保这些产品和服务具有良好的性质,与各种利益相关者相关,确保产品和服务真正适销对路、高高在上方面起着至关重要的作用。

无论是直接与创新技术相关的公司合作,还是在其他任何领域工作,这种新兴技术都会对各方面的专业人士产生影响。不管是需要通过培训来了解公司提供的产品和服务,以便有效地应用你的技能,或者你目前的工作完全不相关,在某个时间点上,这些技术将影响你所遵循的流程变化。

AI工具帮助实现一线客户支持;了解哪些流程已经使用区块链完全透明化;转向云服务,提供访问和使用的便利性;或者计算过程和通信是否在速度上实现了量子飞跃。

以上强调了多学科性的必要性。来自不同背景的专业人员——专门从事本学科的工作,但却具备其他学科的知识或素养,使他们能够就各种观点,包括技术、法律、商业和道德观点进行讨论和批判性思考。

不仅仅是那些直接或间接使用新兴技术的人将受到影响。这些技术带来了进一步的数字化和自动化,使许多任务比以前更有效地进行。这意味着某些类型的工作可能会被自动化,不再需要人类完全参与其中。部份工作可能会完全自动化,而另一些工作则可能在一定程度上仍然需要人类的监督。

事实上,这意味着我们目前在各产业中扮演重要角色的一些工作可能不再需要。我们必须考虑这对受影响的人有什么影响,考虑这对社会有什么影响,有什么政策可以把对个人和社会的负面影响降到最低。受影响的人是否能在其他地方找到类似的工作?他们是否需要提高技能或重新学习技能?雇主应该承担什么责任?同样地,政府、甚至个人呢?

让我们假设一下,通过自动化,一个社会所需的累积工作量可以降到最低。社会是否能从中直接受益,让每个人都能从更多的休息时间中受益?还是只有金字塔顶端的人能够从中受益?然而,这种情况不太可能发生,因为自工业革命期间引入自动化工作以来,已经证明了这一点。事实上,某些类型的任务可以利用人工智能和数据科学实现自动化,但需要由人类操作员对图像和其他类型的数据进行标记或验证。这种需求催生了一个新的领域,那就是人工智能标签,在这个领域中,许多 “人工智能农场”已经在世界各地兴起。以前的制造业质量保证人员很有可能可以被重新培养到人工智能贴标产业工作,有些人可能会认为这是一个提高这类人员工作条件质量的机会(从生产车间工作到办公室工作)。

区块链、分布式账本技术(DLT)和智能合约允许去中心化——从各种服务和流程中去除 “中间人”,这也带来了更大的透明度、保证和防篡改机制,确保服务的参与者不能作弊。

然而,这些保证只存在于区块链本身编码的服务和流程中。这意味着,如果一项服务需要外部输入。例如,如果区块链用于在供应链内提供透明度,以确保不使用奴隶劳动,同时,供应链内工作的员工,及其生产力的所有相关数据都可以让所有人看到,并且不能被操纵,那么必须有人输入数据。

如果向员工提供独特的凭证(或者私钥/公钥对),我们可以确保输入数据的确实是那个人。然而,他们是否会被胁迫输入错误的数据,比方说,所承担的工作量?他们的一些生产力会不会不在系统中登记?虽然人们可以优化这个过程,使其尽可能透明和万无一失,但这个过程最终取决于输入的数据,输入数据的各利益攸关方被认为是可信任的各方,整个系统的目标取决于他们的正确报告。

员工能被信任吗?他们的经理能信任吗?公司的政策能被信任吗?在这种情况下,新的物理审核/验证工作类型正在产生。我们可能无法相信公司本身,但第三方独立审计师也许很可能是值得信赖的。正如我们所看到的,这样的创新技术正在改变工作场所和运作模式,并有可能消除某些类型的工作,但它们也创造了新的工作。

这也不仅仅是技术和工作岗位受影响的问题。这些新兴技术的引入引发了道德难题(除了工作自动化的难题)。其中一个老生常谈的问题是:万一一辆自动化汽车最终陷入了无路可走的境地,只能撞上两个人中的一个,它应该选择哪一个呢?当自动化车辆变得无处不在的时候,我们可能会更多的参与到这个决定中,那么我们就会有更多的选择。自动车会不会根据我们有时可能手动驾驶的方式,学习一些驾驶技巧或模式?它们是否会学习该地区其他司机的驾驶方式和/或行人在这种情况下的互动方式,以便在这种情况下制定策略?或者,汽车是否会要求司机立即做出决定和/或要求每个乘客投票决定它应该采取的策略?如果是这样,在这样的场景或完全不同的场景下,我们是否有能力做出这样艰难的决定?

事实上围绕人工智能伦理框架的许多讨论和政策在过去几年中得到了广泛的报道。但其实,这并不是关于人工智能的,讨论也不应该集中在人工智能伦理框架上(只)。它可能与自动化(可能是支持AI的,也可能不是)更相关。而这样的伦理辩论和考虑甚至不应该以自动化为中心,也不应该以软件为中心。我们应该关注的是独立于技术的核心伦理问题。

这里的另一个老生常谈的问题是:我们是否应该让人工智能根据人口统计学和历史等具有相似特性的数据来决定谁有权获得保险单和/或银行账户?好吧,决策可能由人工智能支持的软件做出,这是个不切要的问题。真正的问题是,人口统计学是否为一个道德上的包容/排除标准。如果由人类来做这样的决定,会有什么不同吗?当然不会。

也就是说,通常,这种决定是基于机构自身的风险偏好和自由裁量权来决定是否采用或为客户提供服务。是否采用技术又有什么不同呢?因此,作为一个社会,我们必须减少对具体的新兴技术的关注,而更多地关注此类问题背后的政策、道德和监管问题。当然,除非技术本身会带来直接的风险。一旦政策、法规和道德准则明确,那么重要的是要遵守这些准则(无论是人工执行还是通过技术执行)。

也许,对于这种人工智能技术具体伦理考量,我们唯一应该思考的就是如何处理有意识的人工智能。你可能会担心人工智能有天接管世界。然而走上这一现实的进步还没有实现。人工智能有两种概括:通用人工智能(AGI),能够做 “任何事情” ——电影中描述的人工智能类型。狭义人工智能(ANI),能够很好地完成/学习一项任务——也就是我们今天能够真正实现的人工智能。虽然AGI似乎并不遥远(很有可能一次突破就能实现),但我们唯一应该提倡的人工智能伦理考虑是:如果你发现了如何实现AGI,在社会和世界想出如何最好地管理它之前,你应该避免部署它

另一方面,一旦量子计算进一步发展,可能会带来网络安全风险。我们现有的互联网基础设施,以及在它之上的设施,实际上,所有的现代基础设施都依赖于密码学——一种确保安全通信的机制,秘密数据不能被窥探者看到。这是通过使用算法来实现的,这些算法可以确保这种系统不可能(或者说不可行)被破坏。之所以说不可能,是因为要进行这样的攻击需要数十亿到数万亿年的时间。

然而,这只是因为现在我们的计算机只能跑这么快。如果明天有一台量子计算机问世,其速度比我们今天的速度高出(指数级)得多,那么我们的互联网基础设施和系统的某些方面可能会受到攻击,这种攻击不需要几十亿到几万亿年,可能只要几分钟到几小时。因此重要的是,就像为发展核武器而签订的条约一样,我们作为一个社会和世界也要签订类似的协议,以确保当这种计算能力可行时不会被任何国家滥用。不过话说回来,我们是否应该早已有这样的网络战协议呢?

无论你是否会开发、直接或间接地与这种新兴技术互动,甚至你与这种技术完全脱节,它很显然地正在改变、并将全然地革新我们的社会和世界。因此,我们的教育体系必须为新生代做好准备,以适应这个令人兴奋的新世界。不仅能够在一个特定的学科内工作,而且能够欣赏将在许多方面重叠的各种学科和观点,并能够在良好的原则性基础上进行批判性思考;这,能够推动我们的物种在技术及伦理上向前发展,以努力实现共同利益。

SiGMA美洲:

SiGMA欧洲(马耳他)及SiGMA亚洲(马尼拉)的成功发表之后,我们将接着推出首届的SiGMA美洲展会,正式涵盖全球的三大时区。首届虚拟峰会日期订于202092224日,虚拟峰会将着重在两大主题:针对博弈产业的SiGMA美洲,以及关注新兴科技产业的AIBC美洲。我们希望能提供最新颖的内容,帮助您在这个动荡的时局中领航。如果您正在观望美洲大陆市场,或是正在思考要采用什么样的技术解决方案,这些就包在我们身上吧:202092224日,关注我们的活动。

Share it :

Recommended for you
Jenny Ortiz
7小時前
Lea Hogg
8小時前
Lea Hogg
9小時前
Lea Hogg
11小時前