分类归档

行业新闻

FWQ
行业新闻
Meta推出语言技术合作伙伴计划,以推进AI翻译的发展
Meta今日宣布与联合国教科文组织合作推出其语言技术合作伙伴计划,旨在收集各种语言的音频和文本,以增强和开发AI翻译模型。 急着赶时间?看看这些要点! Meta与联合国教科文组织合作,推出了语言技术合作伙伴计划,以增强AI翻译模型的能力。 该倡议专注于服务不足的语言,全球组织都被邀请参与。 预计合作伙伴将提供超过10小时的音频和转录,以及用该语言编写的长篇文本,以训练AI模型。 语言技术伙伴计划专注于支持资源匮乏的语言,以支持联合国教科文组织的全球倡议,即国际原住民语言十年——这个计划旨在提高人们对全球原住民语言的认识并保护这些语言。 这家科技巨头也发出了一个公开邀请,希望更多的人和组织加入该计划。Meta期望新的合作伙伴能够提供超过10小时的语音录音以及超过200句的大段文字的转录。 “我们与联合国教科文组织的合作,以扩大AI模型对服务不足语言的支持,是这项努力的重要部分,”Meta分享的公告中写道。“开发能够处理多语言问题并在服务不足的语言中工作的模型,不仅可以在数字世界中推动语言多样性和包容性,还可以帮助我们创建能够适应新情况并从经验中学习的智能系统。” 作为交换,加入该项目的合作伙伴将从Meta的研究团队那里获得技术工作坊。加拿大努纳武特政府已经同意通过提供因纽特语(Inuktitut)和伊努伊纳克图语(Inuinnaqtun)的数据来进行合作。 Meta还宣布了一个开源的机器翻译基准,允许其他公司和AI开发者测试他们的翻译模型。 西班牙最近公布了一个名为Alia的开源AI模型,它被训练以使用卡斯蒂利亚语,以及该国的其他官方语言:加泰罗尼亚语,巴斯克语,加利西亚语和瓦伦西亚语。
2025-05-08 阅读全文 →
FWQ
行业新闻
元邮件揭示了为AI训练盗版书籍的大量下载
新近解密的电子邮件已经浮出水面,被书籍作者们称为对Meta正在进行的版权诉讼的“最有力的证据”,这是首次由Ars Technica报道的。 急着了解情况?这里有快速事实! Meta从像LibGen和Z-Library这样的影子图书馆中下载了81.7太字节的盗版书籍。 内部邮件显示,Meta的员工对下载和分发版权材料提出了法律顾虑。 Meta据称通过避免使用Facebook服务器并尽量减少分发活动来隐藏其下载行为。 Ars Technica报道,作者们指控Meta非法地使用盗版书籍训练其AI模型,而电子邮件揭示了公司内部对于种子传播和下载受版权保护的材料的合法性的担忧。 上个月,Meta承认下载了一个名为LibGen的争议性数据集,其中包含数千万本盗版书籍。 然而,直到未删除的电子邮件被公之于众,具体细节才得以澄清。 根据作者的法庭文件,Meta通过Anna’s Archive站点在多个暗网图书馆中,至少下载了81.7太字节的数据,包括至少来自Z-Library和LibGen的35.7太字节的数据。此外,“Meta以前也从LibGen下载了80.6太字节的数据。” “Meta非法下载的规模令人震惊。”作者的文件指出,即使“数据盗版的行为规模小得多——只有Meta盗版的版权作品数量的.008%,也已经导致法官将行为转交给美国检察官办公室进行刑事调查。” Ars Technica指出,这些邮件还揭示了Meta员工内部的不安。2023年4月,研究工程师尼科拉·巴什雷科夫写道:“在公司的笔记本电脑上使用Torrent下载感觉不太对”,并附上一个笑脸表情符号。 他对使用Meta IP地址“通过Torrent下载盗版内容”表示了担忧。到2023年9月,巴什雷科夫已经不再笑了,他咨询了Meta的法律团队,并警告说“使用Torrent下载会涉及到‘播种’文件——也就是说,将内容分享出去,这在法律上可能是不合规的。” 尽管有这些警告,作者们声称Meta继续通过种子下载和分享盗版内容,甚至试图隐藏其活动。 Ars Technica报道,内部信息显示,Meta为了”避免”任何人”追踪到种子下载者/分享者”的”风险”,而选择不使用Facebook的服务器下载数据集,研究员Frank Zhang如此描述。 Meta公司的高级主管迈克尔·克拉克在证词中也承认,设置被修改过”以使得可能发生的播种量最小化。” 作者们现在争辩说,涉及到torrent决策的Meta员工必须再次接受询问,因为新的证据据称”与之前的证词相矛盾。” 例如,尽管CEO马克·扎克伯格声称自己未参与使用LibGen进行AI训练,但未经审查的信息显示,“决定使用LibGen”是在“先前向MZ进行升级”之后发生的。 Ars Technica报道,Meta坚称其在LibGen上的AI训练构成了“合理使用”,并否认非法分发作者的作品。然而,关于torrenting的启示复杂化了其辩护,使得作者们能够扩大他们对直接侵犯版权的指控。 随着案件的进行,Meta因其处理版权材料的方式面临越来越大的审查,作者们决心让这个科技巨头为他们所描述的一个“大规模非法下载计划”负责。
2025-05-08 阅读全文 →
FWQ
行业新闻
克里斯蒂拍卖行因AI艺术拍卖引发版权争议的反弹
将近4000人已经签署了一封公开信,敦促克里斯蒂纽约拍卖行取消即将举行的增强智能拍卖,该拍卖将展示由AI创作的艺术品。这标志着一家主要拍卖行首次将整个拍卖会专门用于AI生成的艺术品。 赶时间?这里有快速事实! 人们关注的焦点在于AI模型未经艺术家许可或支付费用就使用其受版权保护的作品。 佳士得拍卖行为该拍卖辩护,声称艺术家的作品因AI技术而得以提升。 艾德·牛顿-雷克斯批评佳士得对AI模型利用人类艺术家的行为表示纵容。 这封信在拍卖公告发布的第二天开始流传,它强调了人们对一些AI程序可能在未经许可的情况下,用于创作的作品上进行训练,可能会侵犯版权,剥削人类艺术家的担忧,如CNN首次报道的那样。 这场预期将产生超过60万美元的拍卖会,包括了Refik Anadol、Harold Cohen、Holly Herndon、Mat Dryhurst、Alexander Reben和Claire Silver等知名艺术家的作品。 此次拍卖会展出了20多个拍品,跨越了五个十年,包括各种各样的作品,如数字原生件如非同质化代币(NFTs),以及灯箱、屏幕、雕塑、绘画和版画等。竞标将于2月20日开始,3月5日结束。 信件的作者们辩称,用于创作部分作品的AI模型是在未经原创作者同意的情况下,使用了受版权保护的素材进行训练。”这些模型,以及背后的公司,利用人类艺术家,未经许可或付款就使用他们的作品,构建可以与他们竞争的商业AI产品,”信中写道。 “你对这些模型,以及使用它们的人的支持,奖励并进一步鼓励AI公司大规模窃取人类艺术家的作品。” CNN争论说,这场争议源于使用版权作品来训练生成型AI模型,例如Midjourney、Stable Diffusion和Dall-E,这已经导致了针对科技公司的诉讼。 虽然艺术家们争论说他们的作品被无偿使用,但公司们通过援引公平使用权来为他们的做法辩护,这使得他们可以在未经许可的情况下有限地使用版权材料。 Ed Newton-Rex,非盈利机构Fairly Trained的首席执行官,该机构为公平采集数据的生成式AI公司颁发认证,批评了佳士得对模型的纵容。 克里斯蒂的数字艺术专家,Nicole Sales Giles和Sebastian Sanchez,正在监督这场拍卖。 在向艺术新闻报发表的一份声明中,拍卖行为这次销售进行了辩护,声明:“在这次销售中代表的所有艺术家都有强大的,已经存在的多学科艺术实践,其中一些被顶级博物馆收藏。这次拍卖中的作品都使用人工智能来增强他们的作品系列。” 虽然有些人,如艺术家Sarp…
2025-05-08 阅读全文 →
FWQ
行业新闻
影子AI威胁企业安全
随着AI技术的飞速发展,各组织正面临一个新兴的安全威胁:影子AI应用程序。这些未经IT或安全监督的员工开发的未授权应用程序正在各公司中传播,往往未被察觉,正如最近的VentureBeat文章中所强调的那样。 急着了解?这里有快速的事实! 影子AI应用是由员工在没有IT或安全审批的情况下创建的。 员工创建影子AI以提高生产力,通常没有恶意意图。 公共模型可能会暴露敏感数据,为组织带来合规风险。 VentureBeat解释说,尽管这些应用中的许多并非故意恶意,但它们对企业网络构成了重大风险,从数据泄露到合规性违规都有可能。 “影子AI”应用通常由寻求自动化日常任务或优化运营的员工构建,这些应用使用的AI模型是通过公司专有数据进行训练的。 这些应用通常依赖像OpenAI的ChatGPT或Google Gemini这样的生成AI工具,缺乏必要的安全防护措施,使得他们极易遭受安全威胁。 根据Prompt Security的首席执行官Itamar Golan的说法,“大约40%的模型会默认训练你提供的任何数据,这意味着你的知识产权可能会成为他们的模型的一部分,”VentureBeat报道。 暗影人工智能的吸引力显而易见。在面临越来越大的压力,要满足严格的截止日期和处理复杂的工作量的员工,正在转向这些工具来提高生产力。 WinWire的首席技术官Vineet Arora在接受VentureBeats采访时指出,“部门之所以会使用未经批准的AI解冖方案,是因为其带来的即时收益实在是太吸引人了。”然而,这些工具带来的风险却是深远的。 Golan将这种未经批准的AI比作体育运动中的兴奋剂,他说,“这就像环法自行车赛中的兴奋剂。人们想要获得优势,却没有意识到长期的后果,”这是VentureBeats的报道。 尽管它们有着诸多优势,但阴影AI应用程序也使组织暴露于一系列的漏洞中,包括传统安全措施无法检测到的意外数据泄漏和快速注入攻击。 这个问题的规模令人震惊。Golan向VentureBeats透露,他的公司每天都会记录50个新的AI应用程序,目前已经有超过12,000个在使用中。Golan建议说:“你无法阻止海啸,但你可以造一艘船。”他指出,许多组织对于他们网络中阴影AI使用的范围感到措手不及。 例如,一家金融公司在为期10天的审计中发现了65个未经授权的AI工具,远超过他们的安全团队预期的不到10个工具,这是由VentureBeats报道的。 影子AI的危险对于受监管的行业来说尤其严重。一旦专有数据被输入到公共AI模型中,就很难进行控制,从而可能导致合规性问题。 戈兰警告说:“即将到来的欧盟AI法案可能会使GDPR的罚款相形见绌”,而Arora则强调了数据泄露的威胁以及如果组织未能保护敏感信息,可能面临的惩罚,这是VentureBeats报道的。 为了解决日益严重的暗影AI问题,专家建议采取多方面的方法。Arora建议组织建立集中的AI治理结构,定期进行审计,并部署能够检测AI驱动的攻击的AI感知安全控制。 此外,企业应为员工提供预先批准的AI工具,并明确使用政策,以减少使用未经批准的解决方案的诱惑。
2025-05-08 阅读全文 →
FWQ
行业新闻
针对Mac用户,出现通过假冒更新的网络安全威胁
网络安全研究人员已经揭露了两个新的网络犯罪团伙,TA2726和TA2727,他们对网上的攻击负有责任,包括假更新诈骗和针对Mac,Windows和Android设备的恶意软件攻击。 赶时间?这里有快速事实! TA2727针对Mac用户推出了一种名为FrigidStealer的新型恶意软件,同时还威胁Windows和Android用户。 由于多个威胁行为者使用类似的方法,网络注入活动更难追踪。 恶意的假更新仍然是传播恶意软件的常见手段,尤其是在被侵害的网站上。 这种攻击,主要是将恶意代码注入合法网站,诱使用户下载有害软件,正在变得越来越普遍。 Proofpoint,一家网络安全研究团队,今天发布了一个更新,关于这些”网页注入”活动的频率增加,其目标是通过将用户重定向到被破坏的网站,这些网站看起来值得信任,从而感染用户。 网页注入通常涉及恶意脚本,当用户访问被破坏的网站时运行。这些脚本可以强迫网站显示假的更新通知,欺骗用户点击欺诈性的更新并安装恶意软件。 由于多个行动者采用相同的方法并相互合作,这种攻击变得越来越难以追踪。 从历史上看,TA569组织以使用假冒更新来感染用户的恶意软件而闻名,但在2023年,包括TA2726和TA2727在内的一些组织开始使用类似的策略,正如Proofpoint所解释的。 这些演员通过被黑客攻击的网站散播恶意软件,而非通过邮件活动,这使得检测攻击变得更具挑战性。 例如,TA2726充当”流量分发器”,将用户重定向到各种恶意软件活动中。这个团队与像TA569和TA2727这样的为了财务目的而行事的人合作,利用被黑客攻击的网站散播恶意软件。Proofpoint的调查揭示,自2022年9月以来,TA2726在这些攻击中一直是关键角色。 另一方面,TA2727专注于传播各种类型的恶意软件,包括一种名为FrigidStealer的信息窃取器,该窃取器针对Mac用户。 Proofpoint指出,早在2025年初,研究人员就在针对Windows和Mac电脑的活动中观察到了这种恶意软件。对于Mac用户,攻击会将他们重定向到一个假冒的更新页面,点击“更新”按钮会下载伪装成合法浏览器更新的恶意软件。 FrigidStealer会收集敏感信息,如密码、cookies和与加密货币相关的文件。研究人员解释说,此恶意软件然后将这些数据发送给负责此次攻击的网络犯罪分子。 虽然在企业环境中,Mac用户比Windows用户少,但这些攻击正在越来越频繁地发生。 专家建议采取强大的网络安全措施来防御这些威胁,包括使用端点保护,训练员工识别可疑活动,以及避免点击不受信任的更新通知。
2025-05-08 阅读全文 →
FWQ
行业新闻
AI在法庭文件中产生的错误导致律师遇到法律麻烦
昨天,《路透社》分享的一篇报告揭示,AI的“幻觉”—生成AI模型造成的错误和虚构信息—正在美国的法庭上引发法律问题。 赶时间?这里有快速事实! Morgan & Morgan向1000名律师发送了一封电子邮件,警告他们关于人工智能的风险。 沃尔玛律师承认在他们的案件中使用人工智能的最近案例在法律界引起了警觉。 在法庭陈述中使用聊天机器人的幻觉在最近几年已经成为一个反复出现的问题。 本月,Morgan & Morgan律师事务所向超过1000名律师发送了一封电子邮件,警告他们使用聊天机器人和由人工智能生成的虚假案件的风险。 几天前,怀俄明州的两位律师承认在针对沃尔玛的诉讼文件中包含了由AI生成的伪造案件,并且一位联邦法官威胁要对他们进行制裁。 去年12月,斯坦福大学教授和误导信息专家杰夫·汉考克被指控使用AI伪造法庭声明引文,作为他在为州2023年法律的辩护声明的一部分,这项法律将使用深度伪造影响选举的行为定为犯罪。 在过去的几年里,这样的案件屡见不鲜,不断产生法律摩擦,给法官和当事人带来了麻烦。摩根和摩根以及沃尔玛拒绝对此问题发表评论。 生成式AI已经在帮助律师减少研究时间,但其“幻觉”可能会带来重大的成本。去年,汤森路透的调查显示,63%的律师在工作中使用AI,而12%的人定期使用。 去年,美国律师协会向其40万会员提醒了律师道德规则,包括律师要对其法庭文件中的所有信息负责,这也包括了AI生成的信息,即使这是无意的——就像汉考克的案件一样。 萨福克大学法学院的院长安德鲁·佩尔曼对路透社表示:“当律师被发现使用ChatGPT或任何生成型AI工具创建引文而不进行检查时,那只能说是无能,纯粹就是无能。” 几天前,BBC也分享了一篇报告,警告人们关于由AI生成的假引用,以及新闻业中AI工具存在的问题。
2025-05-08 阅读全文 →
FWQ
行业新闻
尽管面临批评,巴黎AI峰会如何强化了欧洲的AI生态系统
尽管这次国际峰会面临批评,引发了对欧洲联盟人工智能法案的进一步争论,并未能在关键领导人中取得完全的共识,但它对欧洲人工智能技术的发展产生了积极影响。像Mistral这样的公司有机会展示他们的创新,新的投资已经在进行中 上周举行的巴黎人工智能行动峰会,鼓励了多个欧洲和国际国家以及公司做出重大举措和声明,这些都加剧了人工智能领域的紧张并引发了争论。 法国总统马克龙敦促该地区在AI开发上更加雄心勃勃,就像欧洲航天局局长约瑟夫·阿什巴赫几个月前对太空计划所做的那样——而且它奏效了。 马克龙为在全球AI竞赛中获得更多的关注和影响力的行动,开始于AI行动峰会的几天前,当他与阿拉伯联合酋长国签署了一项500亿欧元的协议,在法国建立欧洲最大的AI数据中心,显示了AI开发的重大变革即将来临欧盟。 法国总统的倡议将全球领导人聚集在巴黎进行会议、讨论、研讨会、技术展示,并签署国际协议。但是,它未能在多个问题上获得所有参与者——特别是美国和英国——的全面共识。 马克龙的努力,以及欧盟领导人的努力,足以将欧洲定位为与中国和美国并列的主要AI大国吗?并未完全达到,但已取得了重大进展。 欧盟的AI法案:屋内的大象 去年,欧盟的人工智能法案生效,以规范AI,确保在开发AI风险系统时的安全性,包括对违反该法案的公司、组织和个人使用AI技术时的制裁和惩罚。 当然,许多科技公司和领导者对此大为光火,认为这将减缓创新的步伐,而其他组织认为它需要进一步的完善。数字欧洲总干事塞西莉亚·博内费尔德-达尔将其描述为一个需要解开的“意大利面团”。 两周前,欧洲委员会发布了新的指南,帮助公司和组织理解这个法案——这是在措施开始生效的几天后,以及在人工智能行动峰会之前的事情——可能也希望通过这样做来缓和对该法案的批评。 在一个谈判尝试中,马克龙强调了适当放宽规则的重要性,以维护安全,而不限制人工智能技术的发展和创新。 “有些人决定完全不设立规则,这是危险的。但如果欧洲给自己设立太多规则,也有相反的风险,” 马克龙在活动前夕对法国一家报纸说道。 活动期间受到支持和批评的法案 在巴黎AI行动峰会上,欧盟机构的成员加强了对AI法案的支持。例如,欧洲委员会主席乌苏拉·冯·德莱恩强调了一个统一的规则体系对所有27个成员国适用的价值,而不是多重的监管框架。 其他参与者,如美国副总统JD Vance,重申了美国对这些人工智能规定的立场,将其描述为过于严格。 他表示,美国正在制定更灵活,更少限制的政策,并明确表示该国对大规模合作的兴趣不大。美国的这一立场由其决定不签署人工智能宣言进一步强化,该宣言得到了其他61个参与国的赞同。英国也拒绝签署,但与美国不同,至少提供了解释。 Anthropic的CEO Dario Amodei在一篇公开声明中表示,尽管他对此次活动表示赞赏,但他认为这是一个“错过的机会”,因为应该采取更重要的话题和行动,尤其是关于AI风险的问题。 “我们必须确保民主社会在AI领域处于领先地位,而不是让独裁国家利用它建立全球军事霸权,”他写道。“关于AI的国际对话必须更全面地解决技术的安全风险。 欧洲的竞争力向前迈进一步 将全球的注意力引向欧洲——尤其是法国——确实帮助该地区的国家、公司和组织获得了关注,并展示了他们在采用和创新人工智能方面的努力。 此次活动的主角之一是Mistral,这是一家法国的独角兽公司,正在与OpenAI和DeepSeek等公司竞争,以其聊天机器人和生成型人工智能技术而闻名。 在大皇宫的明星嘉宾Mistral 尽管Mistral在全球范围内的应用程度并不及ChatGPT或DeepSeek广泛,甚至在欧洲的所有国家中也未能全面普及,但在峰会期间,这个初创公司宣布了包括与AI防御和无人机初创公司Helsing的合作伙伴关系以及Cerebras Systems在内的多项联盟。 在巴黎AI行动峰会上,其AI聊天机器人得到了马克龙公开的支持。“去下载Mistral制作的Le…
2025-05-08 阅读全文 →
FWQ
行业新闻
Signal用户成为新钓鱼攻击的目标,攻击者利用链接设备功能进行欺诈
网络犯罪团伙正在加大力度,试图侵入Signal的账户。Signal是一个安全的消息应用,被记者、活动家以及其他面临监控风险的人士广泛使用。 急着了解情况?这里有要点速览! 网络钓鱼活动使用假的二维码将受害者的账户链接到恶意设备。 被针对的个人包括军事人员、记者和使用安全通讯应用的活动家。 Signal发布更新,以保护用户免受利用链接设备功能的侵害。 这些网络犯罪团伙正在利用Signal的一个特性,该特性允许用户一次将应用连接到多个设备,目的是在无需直接破解目标设备的情况下,获得对话的未经授权的访问,这一消息最初由Google威胁情报组(GTIG)首次报道。 Signal,以其强大的加密功能而闻名,长期以来一直是军事人员、政治家和新闻记者等关心隐私的人们的热门选择。但这也使它成为网络攻击的主要目标。 这篇文章声称,由于乌克兰的持续战争,新一轮的攻击波潮被认为已经开始,其中,俄罗斯对截取敏感通讯内容有明显的利益。 这些攻击者正在利用Signal合法的“关联设备”功能,该功能允许用户在多个设备上访问他们的Signal账户。 通常,关联设备需要扫描二维码,但是黑客已经开始制作恶意二维码,一旦被扫描,就会将受害者的账户链接到攻击者控制的设备上。 研究人员解释说,一旦攻击者将他们的设备连接上,他们就可以在不被发现的情况下访问实时对话。 在一些情况下,这些攻击者制作了伪造的Signal群组邀请、安全警报,甚至是军事特定的信息,以诱骗用户扫描恶意的二维码。他们还使用了伪装成与乌克兰军事相关的应用程序的钓鱼页面。 这种方式的低调性质使其难以被发现,一旦成功,它可以长期获取到安全通信。 研究人员表示,更令人担忧的是,这种方法并不需要黑客完全侵入受害者的设备,这意味着他们可以在不引起怀疑的情况下长时间窃听对话。 虽然这些攻击主要针对乌克兰人员,但它们也被用来对付对俄罗斯有利益的其他人。虽然重点放在Signal上,但类似的策略也被用于其他的消息应用,比如WhatsApp和Telegram。 GTIG表示,Signal已通过在最近的更新中加强安全功能作出了回应,鼓励用户升级他们的应用以帮助抵御这些威胁。
2025-05-08 阅读全文 →
FWQ
行业新闻
自由职业开发者成为网络攻击活动的目标
自由职业软件开发者,特别是那些参与加密货币项目的人,正在成为一个名为“欺诈开发”(DeceptiveDevelopment)的复杂网络攻击活动的目标。 匆忙中?这里有要点速读! 像LinkedIn这样的平台上的虚假招聘人员个人资料通过编码任务传播恶意软件。 恶意软件窃取敏感数据,包括加密货币钱包、登录凭据和浏览器信息。 由于直接访问加密资金,加密货币开发者面临极高的风险。 ESET的研究人员发现,被认为与朝鲜有关的黑客正在冒充招聘人员,以诱骗开发者下载伪装成编程挑战或面试任务的恶意软件。 攻击者在热门的求职平台上建立假冒的个人资料,比如LinkedIn,Upwork,和Freelancer.com,他们假装是招聘人员,提供吸引人的自由职业机会。 他们向可能的受害者发送编码测试或项目,通常托管在GitHub等平台上,这些测试或项目包含隐藏的恶意软件,设计用来窃取敏感信息,如加密货币钱包,登录凭据和浏览器数据。 一旦开发者下载并运行该项目,他们的电脑就会被一种名为BeaverTail的恶意软件感染,这种软件充当数据盗窃和下载其他恶意软件的第一阶段工具。 然后,会部署第二阶段的恶意软件InvisibleFerret,使得攻击者能够远程访问受害者的电脑,并允许他们提取更多的信息。 自由职业开发者,尤其是那些从事加密货币和区块链项目的人,是主要的攻击目标,但是攻击者并不会因地域或经验水平而有所歧视。无论是初级还是资深的专业人士都受到了影响,受害者遍布全球。 与朝鲜有关的黑客有一种历史,即通过针对加密货币项目为其行动筹集资金。 通过 窃取加密钱包和登录凭证,他们可以直接访问资金,无需通过传统银行系统洗钱,这使得加密领域的开发者特别容易受到攻击。 ESET研究人员建议自由开发者在被招聘者提供编码挑战或项目时要保持警惕。核实招聘者的个人资料是否有不一致之处,例如联系人的缺失或新创建的账户,是必要的。 在运行任何代码之前,开发人员应该仔细检查是否有可疑的行或隐藏的脚本,尤其是在长的注释中。保持杀毒软件的更新可以帮助检测和阻止恶意软件,避免从不熟悉的来源下载可以降低感染的风险。 欺诈开发是针对加密货币用户的网络攻击日益增多的趋势的一部分。 ESET的研究人员警告说,这场活动正在进化,攻击者正在改进他们的技术以使检测变得更困难。呼吁自由职业者和开发人员保持警惕,并将任何可疑活动报告给网络安全专业人员。
2025-05-08 阅读全文 →
FWQ
行业新闻
AI撰写的简历使得招聘初级理财专家变得复杂
一份最近的彭博报道揭示,银行招聘人员在招聘初级银行家时遇到困难,因为许多候选人依赖AI工具来编写他们的简历。随着更多申请者提交自动化回复和通用制作的简历,招聘流程已经放缓。 赶时间?这里有快速的事实! 银行招聘人员在雇佣初级银行家时,由于AI生成的简历使招聘过程变慢而感到困扰。 招聘人员认为,充满陈词滥调和错误的通用AI写的简历对于求职者来说是一个警告信号。 公司正在花费更多的时间来验证候选人的技能。 根据彭博社的报道,招聘人员现在可以轻易地识别出由人工智能编写的简历,他们会注意到一些过度使用的词汇,如“一丝不苟”和“强大”,以及陈词滥调的表达,如候选人宣称他们在“塑造”某事上发挥了“重大作用”。招聘人员面临的另一个挑战是,申请者并未仔细校对所提供的信息。 “如果这个人连简历都懒得制作,我为什么要花时间去审查他的简历并面试他呢?” 塞尔比·詹宁斯投资银行招聘部门负责人布莉安娜·斯特林在接受彭博社采访时这样说道。 对于招聘人员来说,他们看到的那些老套的简历成了警示的标志,而人工智能的使用使他们花费更多的时间来测试候选人的技能,以确保这些技能与提供的简历相符。 “这些银行家在他们的第一份工作中做的很多事情就是为客户准备财务模型和演示文稿。如果雇主在简历中看到错误或看上去很普通,这可能立即引起他们的警觉。”詹宁斯说。 银行业是一个高度竞争的行业。Careers On The Move的创始人Richelle Konian表示,某些职位可能有大约3000名候选人。“获得工作机会的人会有礼貌和尊重地提交他们的简历。”她说。 银行在人工智能方面面临着多重挑战。黑客经常将银行作为攻击目标,使得网络安全成为他们最大的与AI相关的问题之一。Zayo最近分享的一份报告显示,分布式拒绝服务(DDoS)攻击在2023年至2024年间激增了82%,并指出金融行业是市场上受影响最大的行业之一。
2025-05-08 阅读全文 →