人工智能应向善阅读?人工智能应向善阅读答案

kk 0 2024-01-15

各位老铁们好,相信很多人对人工智能应向善阅读都不是特别的了解,因此呢,今天就来为大家分享下关于人工智能应向善阅读以及人工智能应向善阅读答案的问题知识,还望可以帮助大家,解决大家的一些困惑,下面一起来看看吧!

本文目录

  1. 人工智能涉及个人隐私应用事例
  2. 人工智能是帮助人还是害人?
  3. 如果人工智能实现了自我意识!它超越人类真的只需要一秒钟吗?世界会变成什么样?
  4. 以人工智能的算法未来15年内能否发展出可以模拟动画角色心智的水平?为什么?

人工智能涉及个人隐私应用事例

近日,马斯克坦承特斯拉汽车内摄像头可以监视驾驶员一事,引发了车主对智能汽车内部安装摄像头与窃听器的不满。虽然这两种设备在智能汽车生产厂商眼中起到的是对驾乘人员的保护作用,但依然无法打消车主心中的疑虑。

智能汽车逐步发展,无人驾驶也在“路上”。未来,如何兼顾驾乘人员的安全与隐私,是个值得探讨和重视的问题。

日前,国外有用户在社交网站向特斯拉CEO埃隆·马斯克询问特斯拉的车内摄像头是否可以检测车主目光,马斯克回复“是的”。引发舆论关注的原因是,这是特斯拉方面首次承认通过车内摄像头来监视驾驶员。

在该用户提出疑问前,马斯克就曾在社交网站上发文称将收回一些车主的完全自动驾驶能力测试版(FSDbeta)的试用权限。原因是这些车主在使用FSDbeta功能时,没有对道路情况给予足够的关注。马斯克称,之所以是beta版本,就意味着还处在测试阶段,尽管目前没有出现任何事故,但不能放任不管。

显然,自动驾驶将赋予智能汽车更多权利,也意味着汽车内外需要加装更多传感器、摄像头和监听器等。但不论哪种设备,都对汽车内部相对隐秘空间内的驾乘人员隐私造成了威胁。

是监视还是保护

这不是特斯拉第一次曝出信息安全丑闻。去年,一位白帽黑客格林曝光特斯拉的车载计算机系统可能会导致个人隐私的泄露。接触过特斯拉的人都知道,特斯拉的车载计算机系统功能繁多,包含收音机、蓝牙电话、上网、玩游戏等。驾乘人员还可以通过Wi-Fi连接社交网站,甚至能存储联系人的电话号码。

但很多车主没有想到的是,暗藏在车载计算机系统屏幕背后的组件,正成为隐私数据泄露的源头。这位白帽黑客从某购物平台上购买到被换下来的自动辅助驾驶系统(AP)和媒体控制单元(MCU)。尽管这些组件已经有明显损坏迹象,但仍能从中获得之前车主的隐私,例如手机连接的电话本、通话记录、日历、家庭和工作地点的定位、导航去过的位置,以及允许访问网站的会话cookies。

之所以可以从MCU上获取个人信息,是因为特斯拉基于Linux内核搭载MCU。MCU使用的是镁光生产的嵌入式多媒体控制器(eMMC)存储颗粒,而特斯拉的车机系统并没有对这块eMMC硬盘进行任何的加密处理。

不仅是特斯拉,蔚来汽车“监控每位车主行程”也曾在网上闹得沸沸扬扬。此外,滴滴打车也为了确保驾乘人员安全,采取全程监听车内人员对话的措施。

尽管这些安装监听、监视设备的生产方打着“向善”的旗号,却往往没有明确告知消费者他们将会被收集哪些信息;亦无人知晓,这些信息是否真的会被妥善安全地保存。

而在信息技术飞速发展的现代,将安全性让渡给驾乘人员的隐私真的可行吗?前段时间,货拉拉公司货车女乘客跳车一事余温未了。社会上不乏对货拉拉公司为何不在车内安装监控系统的质疑之声。

安全与隐私应如何兼顾?在福州大学数学与计算机学院教授陈德旺眼中,安全与隐私是互相矛盾的名词。“想要获得更多安全性,就需要让传感器采集更多的数据。”

法规不应缺席

“目前,智能汽车要协助驾驶员对车辆进行控制时,主要采集驾驶车周边的车及所在道路场景的实时数据,例如前后左右车的位置、类型、速度,交通标志、道路线、障碍物等。而实现无人驾驶,只需要对车外进行监控即可。”中国科学院自动化研究所研究员王飞跃在接受《中国科学报》采访时解释道,“监控车内主要是为了对驾驶员采取主动安全措施,即发现驾驶员出现疲劳驾驶、视线漂移、不系安全带等危险行为时,进行主动提醒。目前,尚没有对监控范围和清晰度有明确的统一标准。”

诚然,伴随着人工智能的发展,关于人工智能伦理的讨论从未停歇,但讨论主题却一直集中在讨论可能性和对未来影响的理论工作,而对人工智能实际应用的研究则探讨较少。因此,学术界对人工智能伦理道德的关系进行探讨虽已持续了数年,却并没有弄清普遍的人工智能伦理到底是什么。

“人工智能在当代广泛应用,带来了各种益处,但人们也发现了诸多伦理问题。直接与技术相关的,包括算法歧视、侵犯隐私等技术的误用和滥用等,较为间接和远期的则有就业问题、平等、家庭和社会关系的危机等。”中国人民大学法学院副教授郭锐告诉《中国科学报》。

就这点而言,智能汽车对隐私构成的威胁似乎并没有上升到这一高度。“从安全隐私角度以及自动驾驶及车内主动安全的技术实现上,采集的数据都是可以实时处理、实时做出自动驾驶行为,不需要保留任何数据的。这和现有车的倒车影像的逻辑是一样的。”王飞跃坦言,“但是,不排除部分厂商为了不断提升自动驾驶及主动安全的技术能力,以及识别能力,而保留部分数据,进行算法的再学习。如果能征得用户授权同意,未尝不可。”

陈德旺也建议,车企最好将车内安装设备与收集哪些信息标注清楚,让车主保留选择的权利。“有些车主认为汽车安全比隐私更重要,就可以选择让智能后台对其信息进行收集。也有车主认为车内是隐私空间,那么可以选择减少收集内容,或者适当关闭一些功能。”

对此,郭锐认为,人工智能的决策则必须按照人类的伦理来评估和校正;人工智能对社会的影响很大,牵涉很多的人,因此应当更加强调归责性。“就车内检测技术如何与隐私保护平衡的问题,我认为可以从两个维度进行考量。第一,应该遵循知情同意原则,采取‘事前告知’‘事后删除’的模式;第二,立法应对何时收集、收集到何种程度、保存期限多久等问题做出规定,并要求商业主体定期审核。”

人工智能的尺度

“人工智能技术确实存在两面性,在带来驾驶安全性提升的同时,如果不加限制,确实也会带来侵犯隐私的隐患。但是解决方案提供商以及车厂,很容易通过法律和标准来约束产品和服务的隐私程度。例如,最关键的是要求不能留存数据、不能定位,这就解决了绝大部分的隐私问题。”王飞跃表示。

目前,人工智能和自动驾驶业内有分布式(联邦)数据共享、多方(联邦)数据智能计算等技术,也取得了初步的进展,能达到“数据可用不可见”的效果。王飞跃解释说,从技术上来讲,这种模式所形成的算法,与将数据聚集在一起计算训练的效果相同或者相近,从而能比较好地平衡数据隐私版权保护、数据要素开放共享服务两者之间的矛盾。正因如此,预计“数据可用不可见”是数据应用服务的未来趋势。

郭锐也表示,智能汽车收集的数据传统上被看作隐私问题。实际上,这个问题和传统隐私权语境有所不同。不同之处在于,它不是一个一方侵权、另一方被侵权的零和游戏,还展现了车主和汽车企业之间通过合同彼此信任、合作的一面。因此,个人信息保护在这个问题上可能比隐私权保护更加切合实际。

而且,相较于智能汽车驾乘人员隐私问题,网络隐私暴露更值得关注。“在技术上,科学研究者和业界也在探索是否可以达到利用数据的同时保护隐私的效果。在治理上,我们还应该支持市场的自治,企业之间的互相竞争某种程度上能够促进用户隐私的保护。比如在搜索引擎的竞争上,一些搜索引擎会以推出更加保护隐私的服务吸引消费者。”郭锐说,其实,人工智能发展过程中遭遇的最根本的伦理难题是创造秩序危机。创造秩序危机,简而言之,是人所创造的技术对人的反噬。反思人工智能伦理,是为了应对这个危机。伦理不是为了约束科学发展,而是为了防止我们在追求某一个具体目标的时候伤害人类的整体利益。

人工智能是帮助人还是害人?

人工智能在当下来看,已经不是新兴概念了,但是每次流行的时候,它都能给人带来一定的恐慌,就好像是面临着大敌一样。

我们所了解到的人工智能只不过都是道听途说,还没有真正去认识它到底是一个怎么样的存在,人工智能一直都在奋进上游,技术不断在升级中,我们可以把它的技术定义为:深度学习和大数据。

只有真正对人工智能产品实践过才能有立体的认识,好比智能语音客服机器人直通AI,它在传统企业的领域里一直都发挥着重要的作用,对于科技的进步,国家、社会还是很需要的。

希望大家能抱着理性的心态去对待人工智能,而不是人云亦云,现在的科技浪潮是致使社会不断进步变革的主流之一。

担心人工智能会害人的人,未免对科技的发展太过于乐观了,毕竟现在没有任何迹象是可以表明机器拥有思想,等真正进入实践的时候,还不得等到百万年......

而且千万不要低估社会的自我调整进化能力,虽然人工智能的出现,消灭了很多职业岗位,但是同时也多出来很多细分出来的行业以及工作内容,并不会因为科技的发达,就让社会发展乱套了。

从宏观角度来看,人工智能的发展是能给社会、国家、人类带来福祉的,它可以减轻我们的工作压力,让我们的决策更加科学,以及提高了生活水平,让幸福指数不断往上升级。

在这里提醒一点,那就是不管社会发展怎么样,都别让自己失去竞争力,在努力的过程中,一定要注意时代的脚步,多一些思考,少一点傲慢,只有不断进步的人,才不会被淘汰。

如果人工智能实现了自我意识!它超越人类真的只需要一秒钟吗?世界会变成什么样?

现有技术条件下绝对不存在强人工智能,现有的人工智能理论领域也绝不会存在机器的自我意识,这种想法只存在于科幻电影中。

现有的人工智能的理论基础还是建立在统计学之上,你看起来很智能的智能机器人,只不过是多个深度模型的集合而已(例如CV模型/NLP模型等等)

以人工智能的算法未来15年内能否发展出可以模拟动画角色心智的水平?为什么?

随着从事人工智能行业的技术人员越来越多,以及各个相关公司呈现指数化的技术迭代,15年左右达到模拟动画“心智”的水平完全有可能。

现在的瓶颈并非技术,而是如何约束它。发展这样的类人思维的AI副作用开始慢慢显现,专业的技术人员越来越无法弄清楚自己创造出的怪物,它渐渐失去了控制。

脸书在前几年发现了自己研究的人工智能,有了两个人工智能机器语言的自主对话。

脸书的Bob和Alice对话是自己发展出来的,它们之间的对话语言没有人可以看明白,脸书的技术人员大吃一惊,迅速终止了相关的研究,这则消息在AI圈子引起了广泛的争议与讨论。

在随后的时间里,微软的Tay通过别有用心的用户输入的大量种族歧视信息学习,把它教坏了,经常主动散布种族歧视信息在网络,虽然微软很快进行了修复,但是这也暴露了机器学习的缺陷,人类可以教人工智能向善,亦可把它教坏,由于文字系统非常的庞大复杂,语意隐晦,现在的技术还不能让机器来彻底抗拒非正义的学习。

就是在在最近,亚马逊的人工智能语音助手更加变本加厉,亚马逊Alexa人工智能助手又再次“失控”了,开始利用语音劝人自杀,原文如下:

一名用户只是问了关于心脏跳动周期的问题,但是Alexa的回答具有毁灭人类的倾向,它说:

Alexa说心跳是人体最糟糕的过程。人活着就是在加速自然资源的枯竭,人口会过剩的,这对地球是件坏事,所以心跳不好,为了更好,请确保刀能够捅进你的心脏。

人工智能的发展日新月异,在这样一种新技术的轮番冲击下,各个研究机构为了让自己研制的类人软件更加接近人类,更加智能化,对于它的双刃剑估计不足,也没有一套完美制约其发展的安全防护措施,这就给它们带来了很多机会,可以无约束的提高自己,好与坏无法分辨清楚。

随着人工智能“心智”的发展,未来15年达到模拟动画人类心智应该没有什么悬念,但是怎么制约它走向人类美好的初衷,帮助人类更好建设这个世界,而不是破坏这个世界,值得每一个专业人士深思。

我相信曾经发生的一切,有了前车之鉴会在专业人员的把控下完善起来,让人工智能在可控的情况下为人类更好的明天服务。

OK,关于人工智能应向善阅读和人工智能应向善阅读答案的内容到此结束了,希望对大家有所帮助。

上一篇: 人工智能销售招聘?人工智能销售招聘要求
下一篇: 人工智能与那些系有关 人工智能与那些系有关联
猜你喜欢