论坛风格切换
正版合作和侵权请联系 sd173@foxmail.com
 
  • 帖子
  • 日志
  • 用户
  • 版块
  • 群组
帖子
购买邀请后未收到邀请联系sdbeta@qq.com
  • 115阅读
  • 1回复

[业界新闻]研究人员警告:人工智能需要更好地理解和管理 [复制链接]

上一主题 下一主题
 

发帖
6188
今日发帖
最后登录
2024-09-19
只看楼主 倒序阅读 使用道具 楼主  发表于: 2023-12-27 11:00:21
  兰卡斯特大学(Lancaster University)的一位学者表示,人工智能(AI)和算法有能力并正在被用来加剧激进化、加强两极分化、传播种族主义和政治不稳定。国际安全学教授乔-伯顿(Joe Burton)认为,人工智能和算法不仅仅是国家安全机构用来挫败恶意网络活动的工具。他认为,人工智能和算法还可能助长两极分化、激进主义和政治暴力,从而对国家安全本身构成威胁。 fV!~SX6S  
e,*@+E\4  
  此外,他还说,安全化进程(将技术视为一种生存威胁)在人工智能的设计、使用及其产生的有害结果方面起到了重要作用。 K[q-[q#yc  
Ed#Hilk'  
  伯顿教授的论文最近发表在爱思唯尔影响力较大的《社会中的技术》杂志上。 lQ2vQz-J  
<4"Bb_U  
  他说:"人工智能通常被认为是用来打击暴力极端主义的工具,而这是辩论的另一面。" 0.^67'  
q9nQ/]rkHF  
  这篇论文探讨了人工智能在历史上以及在媒体和大众文化的描述中是如何被安全化的,并通过探讨人工智能在现代产生极化、激进化效应,从而助长政治暴力的例子。 oe=W}y_k  
'lgS;ItpKu  
  文章引用了经典电影系列《终结者》,该片描述了一个"复杂而恶毒"的人工智能所实施的大屠杀,这比任何其他电影都更能引起大众对人工智能的认识,以及对机器意识可能导致人类毁灭性后果的恐惧--在这种情况下,就是核战争和蓄意灭绝一个物种的企图。 80LN(0?x  
o"qG'\x  
  伯顿教授写道:"对机器的不信任、与机器相关的恐惧以及机器与人类面临的生物、核和基因威胁的联系,促使各国政府和国家安全机构希望影响技术的发展,以降低风险,并(在某些情况下)利用其积极的潜力。" yk2XfY  
I%mGb$ Q  
  伯顿教授说,先进的无人机,如在乌克兰战争中使用的无人机,现在能够完全自主,包括目标识别和辨认等功能。虽然包括联合国在内的各国都在开展广泛而有影响力的辩论,要求禁止"杀手机器人",并让人类参与生死决策,但武装无人机的加速和整合仍在继续。 ZP<OyX?  
LiJ./  
  在网络安全--计算机和计算机网络的安全方面,人工智能正得到广泛应用,其中最普遍的领域是信息和网络心理战。 1 @q"rPE^  
xv_Z$&9e>l  
  普京政府在2016年针对美国选举进程采取的行动以及随之而来的剑桥分析公司丑闻表明,人工智能有可能与大数据(包括社交媒体)相结合,产生以分化、鼓励激进信仰和操纵身份群体为核心的政治效应,它展示了人工智能分裂社会的力量和潜力。 ~AcjB(  
KN.WTaO  
  在病毒大流行期间,人工智能被视为追踪病毒的积极手段,但也引发了对隐私和人权的担忧。 oLt%i:,A  
q)RTy|NJ^  
  文章对人工智能技术本身进行了研究,认为人工智能的设计、所依赖的数据、如何使用以及其结果和影响都存在问题,文末向从事网络安全和国际关系研究的人员发出了强有力的信息。 v2vtkYQN  
3o_@3-Y%  
  伯顿教授是网络冲突和新兴技术方面的专家,同时也是该大学安全与防护科学计划的成员,他写道:"人工智能无疑能够以积极的方式改变社会,但同时也带来了风险,我们需要更好地理解和管理这些风险。了解该技术在其开发和使用的各个阶段所产生的分裂性影响显然至关重要。从事网络安全和国际关系研究的学者有机会将这些因素纳入新兴的人工智能研究议程,避免将人工智能视为政治上中立的技术。换句话说,人工智能系统的安全性,以及如何将其用于国际地缘政治斗争,不应凌驾于对其社会影响的担忧之上。" ^B(:Hv}G(:  
IG4`f~k^  
  编译来源:ScitechDaily 0He^r &c3  
离线zxx732738

发帖
298
今日发帖
最后登录
2024-08-12
只看该作者 沙发  发表于: 2024-01-26 09:35:05