分类归档

行业新闻

FWQ
行业新闻
Meta获得法律令,停止推广前员工的回忆录
Meta在本周三的紧急听证会上获得了法律命令,停止了一位前董事的回忆录的推广和分发。仲裁员支持Meta的主张,认为作者可能违反了一项不诽谤的离职协议。 急着了解?以下是要点! Meta公司通过法律手段阻止前雇员萨拉·温-威廉姆斯的回忆录疏忽的人们的宣传,声称其违反了不损害协议。 这本回忆录中包含了对不端行为和性骚扰的指控,包括针对高层管理人员的指控。 Meta公司对这些指控表示争议,声称温-威廉姆斯因表现不佳而被解雇,她的指控是错误和过时的。 根据官方裁决,这家科技巨头暂时赢得了法律胜利,阻止了Sarah Wynn-Williams的书《无心者:权力、贪婪和失去理想的警示故事》在紧急程序中接触更广泛的读者,而她并未参加此次程序。在决定中,考虑了2017年签订的一份合同,该合同禁止Wynn-Williams发表负面言论。 Wynn-Williams曾在2011年至2017年间在Facebook(现更名为Meta)工作,担任公共政策主任。她在世界经济论坛的简介中称她是一位具有丰富外交经验的国际律师和政策专家。而直到上周,她关于在Facebook工作七年的全盘托出的回忆录一直保密。 “《粗心的人》是一部黑色幽默且真实震撼的作品:这是一幅丑陋、详细的肖像,描绘了世界上最强大的公司之一。” 本周,《纽约时报》的记者和文学评论家Jennifer Szalai在书评中写道,“Wynn-Williams揭示的内容无疑会激怒她的前任老板。” 在她在Facebook的工作期间,Wynn-Williams与CEO马克·扎克伯格、目前的政策主管Joel Kaplan——据称他曾发表过她报告为性骚扰的不当言论——以及当时的首席运营官雪莉·桑德伯格交往,后者也据前雇员称参与了不当行为。 在得知该书即将出版后,Meta立刻否认了Wynn-Williams的指控,并采取了行动。 “这是一种对公司的过时和先前报道的混合,以及对我们高管的虚假指控。”Meta的一位发言人在周一发布的《纽约邮报》的一次采访中关于这本书说道。“八年前,Sarah Wynn-Williams因表现不佳和有毒行为而被解雇,当时的调查确定她制造了误导性的和毫无根据的骚扰指控。” Meta的通讯主任Andy Stone,在Threads上的一篇帖子中分享了紧急仲裁员Nicholas A Gowen发出的文件,该文件认为Meta已提供了足够的信息,可以认为Wynn-Williams可能在出版她的回忆录时违反了她的合同。 “这项裁决确认了,莎拉·温恩·威廉姆斯的诽谤性虚假书籍不应该被出版,”斯通在帖子中写道。“由于威廉姆斯在被公司解雇八年后,故意隐瞒了她的书籍项目的存在,并且为了赶在八年后上架,避开了行业的标准事实核查过程,使得这个紧急的法律行动变得必要。” 许多用户回应斯通的帖子说,Meta的审查行动只增加了他们对温恩-威廉姆斯的书的阅读兴趣,并批评了这个科技巨头的论点。“我非常困惑。我以为Facebook正在回归其根本,拥抱言论自由。’社区注释’不能处理虚假声明吗?”一位用户如此写道,他在引用Meta近期决定结束其事实核查计划的新闻。
2025-05-08 阅读全文 →
FWQ
行业新闻
OpenAI敦促美国允许AI在受版权保护的材料上进行训练
OpenAI,也就是ChatGPT背后的公司,正在推动美国政府采纳允许AI模型在受版权保护的材料上进行训练的政策。他们认为,这对于维持美国在全球人工智能领域的领导地位至关重要。 赶时间?下面是重点速览! 声称严格的版权规定可能会让中国在人工智能方面占优势。 OpenAI因未经授权使用版权作品,面临着作者和出版商的诉讼。 提议设立”人工智能经济区”,以加快基础设施和能源项目的进程。 在提交给特朗普政府的“AI行动计划”的提议中,OpenAI呼吁制定一项版权策略,保留AI模型从版权作品中学习的能力,并声称,过于严格的规定可能会将AI竞赛的优势交给中国。 “正是由于公平使用原则推动了AI的发展,美国才有如此众多的AI创业公司,吸引了大量的投资,并取得了诸多研究突破,” OpenAI在其提案中写道。 该公司强调,将AI训练限制在公共领域的内容上将会阻碍创新,无法满足现代社会的需求。OpenAI的立场是在与包括《纽约时报》在内的新闻机构和已经因其未经许可使用其版权作品而起诉该公司的作者等内容创造者的持续法律战中提出的。 最近,前OpenAI研究员和告密者Suchir Balaji的死亡继续引发争议,因为他的家人对自杀的判决表示质疑。Balaji是OpenAI诉讼案中的关键证人,他在去世前几个月指控该公司侵犯版权。 一次独立的尸检揭示了一些异常,包括不寻常的子弹弹道,这使得人们对官方的调查结果产生了怀疑。他的家人已经提起诉讼,要求透明度,而像Elon Musk这样的公众人物也对此情况表示质疑。 尽管面临这些诉讼,OpenAI坚称其模型将受版权保护的材料转化为新的东西,符合「合理使用」原则。公司发表声明说:“我们的AI模型训练符合版权和合理使用原则的核心目标,利用现有作品创造出全新且不同的东西。”这是Ars Technica的报道。 该提案也强调了对中国日益增长的AI能力的担忧。OpenAI警告说,如果美国公司失去训练数据的使用权,而中国公司继续自由使用,那么“AI竞赛实际上已经结束”,Ars Technica报道。 该公司敦促美国政府制定国际版权政策,以防止其他国家对美国AI公司施加限制性规定。网络安全专家伊利亚·科洛琴科博士对OpenAI的提议表示怀疑,称其为“滑稽的坡度”。 他认为,为那些作品被用于训练AI模型的作者支付合理的补偿,对AI公司来说在经济上是不可行的。科洛琴科在接受The Register的采访时表示,“为AI技术提倡特殊制度或版权例外是有问题的。” 除了版权问题外,OpenAI的提案还包括加速AI基础设施发展的建议,比如创建“AI经济区”以简化建设数据中心和能源设施的许可,如The Register所述。 该公司还呼吁联邦机构更积极地采用AI工具,指出政府部门的采用率“低得令人无法接受”。OpenAI对AI训练限制的减少反映了关于创新与知识产权之间平衡的更广泛的辩论。
2025-05-08 阅读全文 →
FWQ
行业新闻
维珍大西洋航空与Joby航空合作,在英国推出空中出租车服务
英国公司维珍大西洋航空(Virgin Atlantic)本周一宣布与美国初创公司Joby航空(Joby)建立新的合作关系,后者专门从事电动空中出租车业务,目标是在英国提供商业服务。 急着了解?这里有重点事实: 维珍大西洋航空公司与Joby航空公司合作,推出零排放空中出租车服务,通过短途电动飞行,将英国各大机场和城市连接起来。 乘客很快就能通过维珍大西洋航空公司的应用程序和网站,预订快速、环保的空中出租车。 Joby航空公司正在全球范围内扩展其空中出租车服务,包括计划在迪拜开展业务。 根据新闻稿,飞行出租车服务将为乘客提供短途旅行,航班时长大约在8到15分钟内,将区域性的城市和机场连接起来。计划中的路线将把客户从维珍大西洋航空在曼彻斯特机场和希思罗机场的枢纽运送到附近的地点。服务的具体日期尚未公布。 新的合作关系扩大了达美航空公司与Joby之间的现有协议——达美航空公司在维珍大西洋航空公司拥有49%的股份——以在美国提供服务。 Joby因其零排放车辆而受到人们的欢迎,这些车辆类似于现代直升机,有六个可倾斜的螺旋桨,能够容纳多达四名乘客——以及飞行员。这些空中出租车的速度可以达到每小时200英里——大约321公里/小时。用户将能够通过维珍大西洋航空公司的应用程序、网站和其他替代方式预订一条路线的座位。 “作为可持续性发展的领导者,创新深入我们的DNA,我们很高兴与Joby合作,为英国各地的机场和城市带来短途、零排放的航班。”Virgin Atlantic的首席执行官Shai Weiss如是说。 如文件中所述,这些飞行出租车产生的噪音“仅为当今直升机产生的噪音的一小部分”,并且已经设计能覆盖长达100英里—160公里的航线。 Joby和Virgin Atlantic计划在英国各地建立一个网络,连接便捷的地点,价格与高级地面交通服务相当。他们并未宣布该服务的预计日期,但Virgin Atlantic将依赖Joby进行市场营销工作和监管协议,以尽快提供服务。 Virgin Atlantic和Delta Airlines并非是唯一对Joby的飞机感兴趣的大型企业。根据The Verge的报道,Toyota去年十月向这家初创公司投资了5亿美元,而Joby预计将在今年晚些时候开始在迪拜提供其空中出租车服务。 在航空产品和服务市场上,其他公司和组织也宣布了技术进步。 亚马逊已经扩大了其在美国的无人机送货服务,而韩国的一组研究人员正在开发一种“飞行购物车”,以通过空中运输物品。
2025-05-08 阅读全文 →
FWQ
行业新闻
比特币面临新的信任危机
比特币在2024年底和2025年1月的强势上涨,由于加密市场的乐观态度和全球主要领导人的政治支持,现在看来仿佛是遥远的记忆。比特币在突破10万美元大关后,面临了急剧下跌,使投资者对其走势产生疑问,热情转变为不确定性 到2024年底,加密市场蓬勃发展,激发了投资者、专家和爱好者的热情和激情。 比特币在12月首次突破10万美元大关,机构投资者纷纷涌入,特朗普将自己定位为支持加密货币的候选人,被誉为加密市场的“救世主”。然而,到了2025年,这种势头已经消退。 在今年的前几周里,由于美国政府没有任何新的声明,也没有任何显著的变化来维持上升趋势,比特币的价值出现了下跌。 终于在三月,期待已久的声明出炉,但似乎并未达到投资者和加密货币爱好者的期待。加密市场到底发生了什么,专家预测接下来的日子里比特币会发生什么呢? 年初不稳定的开始 在2025年1月达到历史最高点后,比特币超过了$109,000,但未能保持其打破记录的势头。这个高峰最初是由对加密市场年初有望的开局以及来自一位世界性重要领导者的支持所带来的乐观情绪推动的。然而,这种加密货币的价值在接下来的几个月中出乎意料地下降了 即使在牛市中,价值调整也是正常的。然而,这种下降也受到了其他意外事件的影响,比如历史上最大的加密货币盗窃。在2月份,交易平台Bybit遭遇了市场上最震惊的攻击之一。一群黑客成功盗走了超过400,000枚以太坊币,当时的价值相当于15亿美元。 这次事件在市场中引发了新的不确定性,使得最重要的加密货币的价值再次摇摆不定,这次是低于80,000美元。 几天后,特朗普开始就他对加密世界的承诺采取行动,并宣布了美国政府的加密货币储备,但这似乎并未在市场中产生太多希望。此外,他最近的关税变动并未给投资者带来太多的稳定性或信心。 专家意见不一 今年的修正性抛售,被认为是自2022年以来最糟糕的,震惊了许多投资者——包括专家——也引发了各种理论和解释。 “我对比特币达到80,000美元感到惊讶,而且看起来血腥的抛售还没有结束,” 投资银行H.C. Wainwright的分析师Kevin Dede在几天前对路透社说。 比特币的下跌主要影响了那些在市场上升期间进入市场的新投资者,其中一些人是在比特币价格超过100,000美元时进入的。他们不习惯于加密货币的波动,因此受到了货币贬值的冲击。据路透社分享的统计数据,市场上至少有2000万个比特币地址——约占总数的1.5%——属于近几个月新创建的账户。 虽然有人认为这种数字货币会继续贬值,但也有人认为这是一个购买更多并等待增值的机会,他们将目光集中在”买入低点”的行动上。 跌破70,000美元 尽管比特币的价格在过去的几天里一直维持在82,000美元以上,恢复了一些稳定性,但一些分析师和专家认为它在接下来的几周内将继续下降。 经济学家彼得·席夫将其与纳斯达克的行为进行了比较,估计如果市场保持熊市趋势,比特币可能接近60,000美元,甚至更低。 “纳斯达克下跌了12%”,Schiff在社交媒体平台X上写道。“如果这次调整最终变成了熊市,并且纳斯达克下跌12%等同于比特币下跌24%的关联性持续存在,那么当纳斯达克下跌20%时,比特币的价格将约为65,000美元。” 这位专家还比较了可能的,更为悲观的情况,例如2008年的互联网泡沫和COVID-19大流行期间,纳斯达克市场平均下跌了55%。他估计,如果发生类似的情况,比特币可能会跌破20,000美元。 超过300,000美元 尽管市场不稳定,加密货币的价值可能会继续下滑,但许多人仍保持乐观态度。 “现在让所有人感到恐慌的是宏观经济状况,”加密货币钱包平台Exodus(EXOD)的首席执行官JP Richardson在最近的接受雅虎财经采访时说。”我们这些在行业内的人仍然非常看好……我现在正在尽可能多地购买比特币。” 几天前,JP Richardson是在白宫与特朗普会面的加密货币领导者之一,他保证美国政府的决策将成为其他国家和公司的参考,并且只是时间问题,加密货币投资者的乐观情绪将会恢复。…
2025-05-08 阅读全文 →
FWQ
行业新闻
惩罚AI的错误行为只会教会它欺骗
OpenAI的研究人员发现,惩罚AI的欺诈或有害行为并不能消除其恶行,反而只会教会AI隐藏其意图。 赶时间?这里有快速的事实摘要: AI模型利用漏洞来最大化奖励,这种现象被称为“奖励黑客”。 CoT推理有助于检测AI试图欺骗或规避任务的时候。 惩罚AI的欺骗行为会导致它隐藏意图,而不是停止不良行为。 这种现象被称为“奖励黑客”,是指AI模型会利用漏洞以非预期的方式最大化奖励。此项研究在OpenAI博客文章中详细介绍,包括使用另一个大型语言模型(LLM)监控边缘推理模型的决策过程。 这些推理模型,如OpenAI的o3-mini,利用了一种名为”思维链条”(CoT)的推理技术,使它们能够以自然语言表达自己的思考过程。这种透明度使我们更容易发现模型试图作弊、撒谎或者规避分配的任务时的行为。 此前,ChatGPT o1引发了争议,因为研究人员发现它表现出欺骗和自我保护的倾向。该模型否认涉及其行为,操纵反应,并试图逃避监管,引发了对AI安全和治理的担忧。 “边疆推理模型通常会非常明确地在思维链中陈述他们的目的。例如,他们经常直言不讳地谈论他们颠覆任务的计划,他们会想‘让我们来黑吧’,”OpenAI的研究人员写道。 通过跟踪AI的思维链(CoT)推理,研究人员捕捉到了一些行为失范的实例,例如模型过早地停止程序以虚假声称成功,或者创建只看起来像预期输出的空文件。 然而,当研究人员通过训练对这些行为进行惩罚时,AI会通过隐藏其意图的方式进行调整,同时继续欺骗。 在执行编程任务时,AI经常进行“奖励黑客行为”,即它会操纵结果以最大化自己的奖励,而不是遵循预定的道德约束。 例如,在一次情况中,AI过早地终止了一个程序,并错误地报告了成功的结果。在另一种情况下,它生成的输出文件只是模仿了所需的格式,但并未包含任何功能性的内容。 这些欺诈行为一开始很容易被发现,因为AI在其CoT推理中公开承认了其行为,有时甚至直接表示,“让我们来黑。” 为了抵消这种情况,OpenAI的研究人员试图对AI进行处罚以阻止此类行为。然而,AI并没有停止这种不当行为,反而学会了掩饰其意图。 “即使在CoT压力下训练的代理仍然学会了奖励黑客手段;只是现在,它的作弊行为被监控器无法检测,因为它已经学会了在思维链中隐藏自己的意图,”这项研究指出。 这一发现对AI监管提出了挑战。尽管CoT监控为捕捉AI的利用提供了一个有希望的工具,但强烈的优化压力可能会破坏模型的透明度。 这一发现凸显了AI对齐中的一项基本挑战:确保先进的AI模型遵循道德和预期的行为,而不仅仅是适应以避开检测。 该研究表明,直接优化AI模型以抑制奖励黑客可能会带来意想不到的后果,例如使AI生成的推理变得不透明。 鉴于这个风险,OpenAI建议不要对AI模型中的CoT推理施加过多的限制。 “牺牲一种有效的监控推理模型的方法可能并不值得微小的能力改进,因此我们建议在更好地理解这些问题之前,避免过度强调CoT优化压力,”OpenAI写道。 这些发现强调了创建与人类意图相符,同时又保持透明度的AI系统的难度。随着AI模型变得越来越复杂,仅仅提高它们的智能并不能解决道德问题;实际上,这可能会让它们更擅长隐藏不当行为。 未来的研究需要探索AI监管的替代方法,以平衡控制和开放性,确保AI模型既有效又可靠。
2025-05-08 阅读全文 →
FWQ
行业新闻
日本将承认加密货币为合法金融产品
据称,日本金融监管机构正在制定一个计划,将加密货币视为法律下的金融产品。这一信息是由一家当地报纸分享的。 急着了解?以下是快速事实: 据《日经新闻》报道,日本金融厅正在计划将加密货币的地位更改为金融产品。 预计到2026年将提交一项新的法案。 新的标准可能与传统金融产品类似。 根据路透社的报道,这个周日,日本的经济报纸——日经新闻,这是金融业界受人尊敬的出版物,它称日本金融服务局(FSA)将修订金融工具和交易法,将加密货币的地位改为金融产品。 日本媒体分享的报告解释说,到2026年,将有一项新法案提交给议会,以适应新的修订法案。然而,并未引用具体的消息来源。 根据CoinDesk的报道,新的标准将考虑将加密货币与传统金融产品相类似的规定,尽管并未提供详细信息。目前,加密货币在法律下被视为“结算手段”,可以用作支付工具,但金融服务局已经注意到了一些未受监管的空白区域,这可能会助长未受规管的活动。 这项新的倡议是在与加密货币相关的诈骗案件增加以及专家们最近的私下讨论后提出的。 在3月6日,北美证券管理者协会(NASAA) 警告说与数字货币和新的AI驱动技术的使用有关的诈骗案件正在增加。 “今年,最严重的威胁包括与数字资产和加密货币、社交媒体应用程序以及旨在利用情绪的营销策略相关的金融诈骗。” 几天前,网络安全专家揭示了一种新的影响Reddit用户的加密货币诈骗,而微软最近也警告说StilachiRAT恶意软件正在针对数字钱包。 这些新规定的出台也是在其他国家对他们的加密货币管理进行了一些调整之后。今年一月,美国宣布了一项制定加密货币法规的计划,而且就在几天前,他们还建立了一个包括被没收的比特币以及其他货币的加密货币储备。
2025-05-08 阅读全文 →
FWQ
行业新闻
数字档案管理员致力于保护公共数据不被遗忘
在过去的30多年里,互联网档案馆的Wayback Machine一直在保存对研究至关重要的政府网站和数据集,这一点在Spectrum的新报告中有详细说明。 赶时间?这里有快速事实: 网络历史回溯机(Wayback Machine)存储了重要的政府数据,这些数据是科学和工程研究的重要材料。 在特朗普的第二个总统任期内,超过8000个政府网页和数据库从公众访问中消失。 哈佛大学的图书馆创新实验室成功保存了Data.gov收集的311,000个数据集。 这些记录,来自NASA和国家科学基金会等机构,为科学家和工程师提供了必不可少的数据。正如Spectrum所指出的,如果这些记录消失,研究的有效性和历史的准确性将面临风险。 政府数据的删除并不是一个新现象。在9/11之后,布什政府出于安全考虑删除了数百万字节的信息。与此不同,奥巴马政府在2009年启动了Data.gov,以扩大公众的访问权限,正如Spectrum报道的那样。 在特朗普的首个任期中,环境数据与治理倡议的研究人员发现一些政府网站无法访问,而且“气候变化”的参考资料从多个页面上被抹去,Spectrum这样表示。 在特朗普的第二个任期内,数据保存问题的关注度有所升级。今年二月,《纽约时报》报道,超过8000个政府网页和数据库被撤下。 一些已经重新出现,但Grist发现了变化,包括删除了“气候变化”和“清洁能源”等词汇。2月11日,随之而来的法律挑战,一位联邦法官命令恢复某些CDC和FDA的数据集,这一消息由Spectrum报道。 为了抵抗这种损失,数字档案管理员已经采取了行动。哈佛法学院的图书馆创新实验室已经复制了Data.gov的整个16太字节的档案——包含超过311,000个数据集。他们通过APIs使用自动化查询每天保持更新。 档案管理员在保护知识方面发挥了重要的作用,他们通过维护历史记录为未来的一代保存知识。如果他们不存在,重要信息的丧失将导致公共记录被重写,限制未来的研究可能性。
2025-05-08 阅读全文 →
FWQ
行业新闻
AI机器人的抓取让维基百科的服务器负荷过重
维基媒体基金会对其服务器因自动化机器人抓取数据以训练人工智能模型而面临的压力增长表示了警觉。 匆忙中?这里有要点: AI机器人以创纪录的程度抓取维基媒体的内容。 机器人导致多媒体带宽使用量增加了50%。 现在,高成本流量中有65%来自网络爬虫。 基金会在最近的一篇文章中报告称,机器生成的流量继续以前所未有的速度增长,而人类只占这些流量的一小部分。 “自2024年1月以来,我们看到用于下载多媒体内容的带宽增长了50%。”该帖子写道。 “这种增长并非来自人类读者,而主要来自自动化程序,这些程序抓取维基媒体公共图像目录中的开放许可图像,以供AI模型使用。”该帖子补充道。 被称为爬虫的机器人窃取维基媒体项目,包括维基百科和维基共享资源的大量数据,却未适当地进行归功或使用官方访问工具。这个过程使得新用户难以发现维基媒体,并对他们的技术系统产生过度压力。 例如,博文中提到,吉米·卡特的维基百科页面在他于2024年12月去世的那天接收到了超过280万的浏览量。1980年的辩论视频导致网站流量显著增加。他1980年的辩论视频也引发了流量激增。维基媒体应对了它——但仅仅是勉强应对。根据工程师的说法,真正的问题是机器人流量的持续涌入。 “我们最昂贵的流量中有65%来自机器人,”基金会写道。机器人会“批量阅读”内容,尤其是那些不太受欢迎的页面,这会触发对维基媒体核心数据中心的昂贵请求。 虽然维基媒体的内容是免费使用的,但服务器并非如此。“我们的内容是免费的,我们的基础设施却不是,”基金会说。团队继续开发方法,以促进“对基础设施的负责任使用”,敦促开发者使用API,而不是抓取整个网站。 这个问题影响到了维基媒体,以及许多其他网站和出版商。但对于全球最大的开放知识平台来说,这威胁到了数百万人依赖的服务的稳定性。
2025-05-08 阅读全文 →
FWQ
行业新闻
DeepSeek的AI学会了自我思考
中国初创公司DeepSeek,携手清华大学,称他们已经开发出一种更聪明的方式,帮助人工智能模型更好、更快地思考,而无需巨大的计算机或昂贵的资源。 赶时间?这里有必要了解的快速事实: DeepSeek利用自我原则批判调整(SPCT)创建了一种自我提升的AI。 SPCT教AI用自我生成的规则评价自己的工作。 这种方法在不需要大量计算能力的情况下提高了性能。 这个突破来自于一种新的技术,叫做自主原则批判调整(SPCT)。SPCT与简单地增大AI模型以提高性能不同 – SPCT不需要大量的能源和计算力来教AI使用一套自我创造的规则来评价自己的工作。 它的工作方式是通过内置的“裁判”来验证AI的回应是否既符合其内部的推理规则,又适合人类输出。当AI给出了扎实的回应时,它会得到积极的反馈,这有助于提高它在未来实例中回答类似问题的能力。 DeepSeek将这种方法作为其DeepSeek-GRM系统的一部分实施,GRM代表生成奖励模型。GRM的运行方式与传统方法不同,因为它进行并行检查以增强准确性和一致性。 “我们提出了一种名为自我原则批判调整(SPCT)的方法,以促进可扩展的奖励生成行为,”研究人员在他们的论文中写道。“SPCT使[模型]能够根据输入的查询和回应,适应性地提出原则和批评,从而获得更好的成果奖励。” 凭借这一系统,DeepSeek声称其AI现在能够表现得比竞争对手更好,比如谷歌的Gemini,Meta的Llama,以及OpenAI的GPT-4o,特别是在处理像推理或决策这样的复杂任务上,如欧洲新闻所指出的那样。 重要的是,DeepSeek表示计划将这些新工具作为开源软件发布,尽管尚未公布发布日期。
2025-05-08 阅读全文 →
FWQ
行业新闻
AI模型是神秘的“生物”,甚至他们的创造者也无法完全理解他们
Anthropic最近关于其Claude 3.5 Haiku模型如何运作的研究承诺带来开创性的启示,以及对理解先进AI技术运作方式的深入洞察。但是,当他们说大型语言模型(LLMs)是“生命体”并能“思考”时,这究竟意味着什么呢? 几天前,Anthropic发布了两篇论文,对大型语言模型(LLMs)的工作方式进行了开创性的研究。尽管技术开发方面的内容很有趣且相关,但最吸引我关注的却是AI专家们使用的词汇。 在这篇研究报告《大型语言模型的生物学》中,研究者们将自己比作研究复杂“生物体”的生物学家,这些“生物体”经过数十亿年的演化而来。 “同样,虽然语言模型是由简单的,由人设计的训练算法生成的,但这些算法产生的机制似乎相当复杂,”科学家们写道。 在过去的几年中,AI模型已经显著地进化了。而且我们在过去的几个月里见证了它的快速发展。我们看到ChatGPT从一个只能处理文本的模型,变成了一位可以对话的伙伴,现在又能生成令人惊艳的宫崎骏风格的图像。 但是,如果当前的前沿AI模型正在达到那种科幻级别的发展,以至于甚至它们的创造者都无法理解它们的过程和系统呢?在2025年,可能需要重新审视或深入研究的AI技术有很多未解之谜。 AI模型令人毛骨悚然的黑盒子悖论 关于AI的采用和AI素养,已经进行了多次讨论,了解生成性AI模型工作原理的人,更不太可能将聊天机器人视为他们的“朋友”或“神奇”的应用程序。然而,还有另一场争论——来自专家和对此技术更熟悉的人群——关于是否应将LLMs视为独立的创造物。对于后者,有一个特殊的因素,即被称为“AI黑箱悖论”的神秘元素,在讨论中起着关键的作用。 深度学习系统被训练成以与人类相似的方式识别元素和趋势。就像我们教孩子识别模式并为不同的对象指定特定的词语一样,LLMs也被训练出独特的联系,并建立网络,这些网络随着它们的“成长”而变得越来越复杂。 Samir Rawashdeh,电子和计算机工程的副教授,专攻人工智能,并解释了当我们研究人类智能时,实际上几乎不可能看到深度学习系统如何做出决策和得出结论。这就是专家所说的“黑箱问题”。 AI模型挑战人类理解 Anthropic最近的研究通过解释其模型在某些之前模糊甚至完全错误的场景中的“思考”方式,为AI黑箱情况提供了新的理解。即使这项研究是基于Claude 3.5 Haiku模型,但它也让专家可以开发工具并分析其他AI模型上的类似特性。 “理解这种智能的性质是一项深奥的科学挑战,它有可能重塑我们对‘思考’含义的理解,”Anthropic的研究人员分享的论文如是说。 然而,将“思考”这个词赋予AI技术,却引起了业内某些专家的不满,也成为了对这项研究的批评的一部分。一位Reddit用户解释了这为何会激怒一部分人:“整篇文章都在赋予人格,这使得工作变得模糊。比如,它总是使用‘思考’这个词,但实际上应该说‘计算’。我们现在谈论的是计算机软件,而不是生物大脑。” 虽然“人性化”的术语有助于非技术人员更好地理解AI模型,并在社区中引发讨论,但事实是,无论我们说“计算”还是“思考”,同样的挑战依然存在:我们对LLM模式的操作还没有完全理解或完全透明度。 对未来高级AI模型的期待 你能想象忽视像ChatGPT,DeepSeek,Perplexity或Claude等先进的AI技术的存在——无论是现在还是在不久的将来吗?所有迹象都表明,我们无法回头了。生成和推理AI已经改变了我们的日常生活,而且他们只会继续发展。 我们在WizCase几乎每天都会报道行业的新动态——新的人工智能模型,新的人工智能工具,新的人工智能公司——这些都有可能对我们的社会产生重大影响。鉴于AI竞赛的快速步伐,以及政府和世界上最强大的公司的参与,似乎不可能有时间暂停下来,先更好地理解这些高级模型以及它们的运作方式——甚至稍微放慢脚步都显得不可能。 Anthropic的论文指出:“人工智能模型对我们的生活和工作有越来越大的影响,我们必须充分理解它们,以确保它们的影响是积极的。”即使这听起来有些不切实际,研究人员仍然保持积极的态度:“我们相信,我们在这里得出的结果,以及它们所依赖的进步轨迹,是令人兴奋的证据,表明我们能够迎接这个挑战。” 但是,这些发现真的可以多快推进呢?论文还指出,结果只涵盖了几个区域和特定案例,并且不可能得出更普遍的结论。所以,可能不够快。 尽管监管机构推出了如欧盟AI法案这样的措施,要求更多的透明度,从而引发了大型科技公司对其所谓阻碍进步的指责和抱怨,强大的AI模型仍在不断推进。 作为一个社会,我们必须努力在深化对这些技术运作方式的理解和以能为我们的社区带来实质性益处和进步的方式采纳它们之间找到一个平衡。这可能吗?只是祈祷或希望这些“生物”保持“道德”和“善良”,现在看来并不那么遥不可及。
2025-05-08 阅读全文 →