leyu乐鱼


    1. 咨(zī)询热线:021-80392549

      leyu乐鱼 QQ在线 leyu乐鱼 企业微信(xìn)
      leyu乐鱼
      leyu乐鱼 资讯 > 人(rén)工智能(néng) > 正文

      人工智能和隐私热议 了解AI透(tòu)明性的利(lì)弊

      2020/07/23542

      随着AI在更多(duō)行业中被越来越多(duō)地采用(yòng),其(qí)用(yòng)户试图(tú)在有效保护其实用性的同时实现保护用户隐私的微(wēi)妙平衡。AI的(de)常见优秀实践是对AI的使(shǐ)用以及如何达到(dào)特(tè)定结果(guǒ)保持透(tòu)明。但是,这种透(tòu)明度有好有坏的一(yī)面。这是(shì)您应该了(le)解的AI透(tòu)明性的(de)利(lì)弊,以及实现这(zhè)一困难平(píng)衡的可能解决方案。

      好(hǎo)处

      人工智能(néng)可提高效率,利用创新并(bìng)简化流程。透明(míng)地了(le)解其工作原理和计算结果的方式可以带来(lái)一些社会和商(shāng)业优势,包(bāo)括:

      司法公正

      在过去的(de)几年中(zhōng),人工智(zhì)能的使用数量持(chí)续增长。人工智能甚(shèn)至(zhì)已经扩展到司法系统中,从(cóng)做交通(tōng)票到考虑比(bǐ)陪审团更公平,人(rén)工智能都可(kě)以做。

      当公司对(duì)使用AI透明时,它们可以增加用户诉(sù)诸司法的机会。人(rén)们可以看到(dào)AI如(rú)何收(shōu)集关键信息并达(dá)到特定结果(guǒ)。与不(bú)使用AI的情况(kuàng)相比,他们可以获得的技术(shù)和信息更多。

      避(bì)免(miǎn)歧视(shì)

      AI的(de)原始缺(quē)点之一是(shì)当AI被用来检测模(mó)式并根据其收(shōu)集的数据对用户做出假(jiǎ)设(shè)时,可(kě)能会产生歧视性结果。

      然而,人(rén)工智能今天变得更加(jiā)复杂,甚至(zhì)被(bèi)用来(lái)检(jiǎn)测歧(qí)视。AI可以确(què)保包括所有用户的信息(xī)或听(tīng)到(dào)他们的(de)声音。在这方面,人工智能可以成为一个很好的均衡(héng)器。

      灌(guàn)输的信任

      当AI用户预先了(le)解他们(men)对AI的使(shǐ)用(yòng)并向其客户群(qún)说明这(zhè)种(zhǒng)用法时,他们更有可(kě)能(néng)灌输信任感。人们需要知道公司如何达到特定的结果,而透明可以(yǐ)帮助弥合企业与其客户之间(jiān)的鸿沟。

      客户愿意拥抱AI。在Salesforce的“关联消(xiāo)费者状况”中接受调查的消(xiāo)费者中,有62%的人表示(shì)他们对(duì)AI持开放(fàng)态度,以(yǐ)改善他们的(de)体(tǐ)验,并(bìng)且企业愿(yuàn)意满足这一需求。

      埃(āi)森哲(Accenture)最近的一项(xiàng)调(diào)查显示(shì),有72%的高管表示,他们希望通过透(tòu)明地使用AI来获得客户对产品或(huò)服务的(de)信任(rèn)和信心。能够透(tòu)明地使(shǐ)用AI以及为保护用(yòng)户数据而采(cǎi)取(qǔ)的安全措施的公司(sī)可能会从(cóng)这种提高的透明度中受益(yì)。

      更明智的决策

      当人们知道自己正在(zài)与AI系统进行交(jiāo)互而不是(shì)被骗去认为它是(shì)人类(lèi)时,他们通常可以适应自己的行(háng)为以获取所需(xū)的信息。

      例如,人们可能(néng)在(zài)聊天(tiān)框中使用关键字(zì)而不是完(wán)整(zhěng)的(de)句子(zǐ)。用户可能会对这些系统(tǒng)的(de)优点和局限性有(yǒu)更好(hǎo)的了解(jiě),并做出有意识的决定与AI系统进行交互。

      缺点

      尽管透(tòu)明度可以(yǐ)带来上述一些积(jī)极成(chéng)果,但(dàn)它也有一些缺点,包括(kuò)以下方面:

      缺少隐私(sī)

      反对(duì)AI及其透明性的一个重要(yào)论据是可能缺乏隐私。AI通(tōng)常会收集大数据,并(bìng)使用独(dú)特的算法为该数(shù)据分配(pèi)一个值。但是(shì),为了获得(dé)结果(guǒ),人工智能通常会跟踪(zōng)每项在线(xiàn)活动(您可以免(miǎn)费获得背景调查),人工(gōng)智能会跟踪,搜索和使用企业(yè)网站。其中一些信(xìn)息也可能出(chū)售给第三方。

      此外,人工智(zhì)能通常用于跟(gēn)踪人们(men)的在线(xiàn)行为,从(cóng)中人们(men)可以辨别有关一个人的关键信息,包(bāo)括(kuò)他或她:

      种族 政治信仰 宗(zōng)教信仰 性别 性倾向 健康状(zhuàng)况(kuàng)

      即使(shǐ)人们选择不向(xiàng)任(rèn)何人在线提供此敏感信(xìn)息,由于AI功能,他们仍然可(kě)能会遭受信(xìn)息的丢失。此(cǐ)外(wài),AI可(kě)能会跟踪公开可(kě)用的(de)信息。但是,当没有人检查此信息的准确性(xìng)时,一个人的信息可能会与另一个人(rén)的(de)信(xìn)息混淆。

      破解(jiě)说明

      当公司发布其对AI的解释时,黑客可能(néng)会使用此信息(xī)来操纵系统。例如,黑客可能能够对(duì)代码或输(shū)入进行微小(xiǎo)的更改以实(shí)现不准确的结果。

      这样,黑客就可以利(lì)用(yòng)公司自身的透明度来抵制它。

      当黑客了(le)解AI背后的原(yuán)因时,他们可能会(huì)影响算法。通常不鼓励使(shǐ)用这种技术来(lái)检测(cè)欺诈。因(yīn)此,当利益相关(guān)者未(wèi)采取(qǔ)其他措施时,该系(xì)统可能更(gèng)易于操(cāo)作(zuò)。

      知识产权盗窃

      当(dāng)一(yī)家公司对AI的使用透明时,可(kě)能会出现的另一个(gè)潜在问题是这些黑客(kè)窃取了其专有商业秘密或知识产权的可能(néng)性(xìng)。这些人可能能够(gòu)查看(kàn)公司的解释并重(chóng)新创建(jiàn)专有算法,从而损害(hài)业务。

      容(róng)易受到攻击

      网上有(yǒu)如此(cǐ)多(duō)的可用信息,有7800万美国人说他(tā)们担心网络安全。当公司阐明(míng)如何使用AI时,这可能使黑客更容易访问消费者(zhě)的信息或造成(chéng)可能导致身份(fèn)盗用的数据泄露,例(lì)如(rú)臭名昭(zhāo)著的Equifax数据泄露(lù),使1.48亿美(měi)国人(rén)的私(sī)人记录(lù)受损。

      监管的敏感性(xìng)

      有关AI的披露可能会(huì)带来其他(tā)风险,例(lì)如(rú)更严格的监(jiān)管。当AI令人困(kùn)惑且难以(yǐ)使用时,监管机构可能不理解或无法对其进行(háng)监管。但是,当企业对AI的角色透明时,这可(kě)能会带来关于(yú)AI及其使用方式的更重要的监(jiān)管框架。以这种方式,创新者可(kě)能因其创新而受到惩罚。

      诉讼(sòng)目标更容易

      当(dāng)企业清楚其如何保(bǎo)护消费(fèi)者的数据(jù)以(yǐ)实现透明性为目(mù)的时,它们可能会(huì)不知不觉地(dì)使自(zì)己更容易(yì)受(shòu)到声称其信息使用不当(dāng)的消费者的法(fǎ)律主张的影响。聪明(míng)的律师(shī)可(kě)以仔细(xì)审查AI透明性信(xìn)息,然(rán)后(hòu)开发有关业务对AI的使用的创新(xīn)法(fǎ)律理论(lùn)。

      例如,他们可能专(zhuān)注于企业没有采取哪些措施来保护消费(fèi)者的隐私。然后(hòu),他们可能会使用此信息来声(shēng)称该(gāi)企(qǐ)业的行(háng)为或疏忽(hū)大意。此外(wài),许多(duō)AI系统都以更简单的模型运(yùn)行。对其算法透明的公司可能(néng)会使用不太复杂的算法,这些算法可能(néng)会忽略(luè)某些(xiē)信息或(huò)在某些情况下(xià)导致错(cuò)误。经(jīng)验丰富的律师可能能够(gòu)确定AI导致的(de)其(qí)他问题,以证实其对(duì)企业的法律(lǜ)主张。

      关(guān)于AI和(hé)隐私(sī)的真(zhēn)相

      任(rèn)何看过《终结(jié)者》电影(或者基本上是世界末日电影)的人都知道,即使仅出于最(zuì)崇高的理由而开发(fā)的技术也有可能被武器化(huà)或用作最终(zhōng)损害社会的东西。

      由于存(cún)在(zài)潜(qián)在的危害,已经通过了许多法(fǎ)律(lǜ),要求某些公司在(zài)使用AI方面保持透明。例如,金融服务公司必须披露他们在确定一个人(rén)的信誉时使用的主要因素(sù),以及为什么他们在(zài)贷(dài)款决定中采(cǎi)取不利行动。

      立(lì)法者正(zhèng)在积极提出并考虑其(qí)他(tā)法(fǎ)律。

      如果获得通过(guò),这些法律可(kě)能会确立企(qǐ)业必须遵守的有关其如(rú)何收集(jí)信(xìn)息(xī),如(rú)何(hé)使用AI以及是否首先需(xū)要征得(dé)消费者(zhě)同意的新义务。2019年,一项(xiàng)行(háng)政(zhèng)命令签署成为法律,指示(shì)联邦机构将资源投入到AI的开发和维(wéi)护中,并(bìng)呼吁(yù)制定准则和标准,以允(yǔn)许联(lián)邦机构以(yǐ)保护隐私和(hé)国家(jiā)安全的方(fāng)式(shì)监管AI技术。

      即(jí)使尚未要求(qiú)企(qǐ)业(yè)对AI的使用保持(chí)透明,也可(kě)能很快就没有(yǒu)选(xuǎn)择(zé)的(de)机会了。为(wéi)了应对(duì)这种可能的结果,一些(xiē)企(qǐ)业(yè)正在(zài)积(jī)极建立内部审查委员会,以测试AI并确定围(wéi)绕(rào)AI的(de)道德问题(tí)。

      他们还可以与(yǔ)法律部(bù)门(mén)和开发人员(yuán)合作,为他们(men)发现(xiàn)的(de)问(wèn)题创建解决(jué)方(fāng)案。通(tōng)过仔细评估其潜在(zài)风(fēng)险并在强制披露(lù)之(zhī)前确定问题的解决(jué)方案(àn),企业可(kě)能会更好(hǎo)地规避与(yǔ)AI透明度相关的风险(xiǎn)。

      关键词:




      AI人工智能网声明(míng):

      凡资讯来源注明为其他(tā)媒体来源的(de)信息,均为转载自其他(tā)媒(méi)体(tǐ),并不(bú)代表本网站赞同其(qí)观点,也不代(dài)表本网站(zhàn)对其真实性负责。您若(ruò)对该文(wén)章(zhāng)内(nèi)容有任何(hé)疑问或质疑,请立即与网站(www.ankang.huangnan.sys.jixi.ww38.viennacitytours.com)联系,本网站(zhàn)将迅(xùn)速给您回应并做处理。


      联系(xì)电话:021-31666777   新(xīn)闻、技术文章投稿QQ:3267146135   投稿(gǎo)邮(yóu)箱:syy@gongboshi.com

      工(gōng)博士人工智能(néng)网
      leyu乐鱼
      扫(sǎo)描二维(wéi)码(mǎ)关(guān)注微信
      扫码反馈(kuì)

      扫一(yī)扫,反(fǎn)馈当前(qián)页面

      咨询反(fǎn)馈
      扫码关注

      微(wēi)信公众号(hào)

      返回顶部

      leyu乐鱼

      leyu乐鱼