分类归档

行业新闻

FWQ
行业新闻
AI代理将如何影响我们的生活?
2025似乎是代理人工智能(Agentic AI)的年份。OpenAI、微软、Anthropic以及其他主要科技公司发布了他们最先进的人工智能模型,能够执行去年还无法完成的复杂任务。但是,AI代理到底是什么?这项技术真实的成分和炒作的成分各占多少? 跟上近年来的AI趋势可能会让人感到疲惫。我们从基础的AI发展到生成性AI,再到推理型AI,现在,AI代理正在主导话题。在过去的几个月里,多家科技公司纷纷推出新的AI代理,并强调连接这些代理的工作流程越来越具有吸引力。 在一月份,OpenAI发布了其首个AI代理,Operator,它能够自主地执行任务,比如根据你的喜好和标准浏览网页,预订餐厅,或者为你购买音乐会门票。 两个月后,中国AI初创公司Zhipu发布了AutoGLM Rumination,这是一个免费的AI代理,可以独立操作并为用户规划旅行。就在几天前,微软为Copilot Studio推出了“计算机使用”功能,为AI代理增加了更多自主能力,包括接管用户的桌面。 但这个趋势并不只是公司推出酷炫新产品的问题,它关乎一个复杂且不断发展的领域,该领域将各种形式的AI与人类交互相结合。科技爱好者和专家们对代理人工智能Agentic AI都表示出了强烈的乐观态度。 “我同样对AI代理人工作流这个趋势感到兴奋。”Coursera和DeepLearning联合创始人、AI专家吴恩达在11月的Snowflake的BUILD 2024会议上说,“如果你问我,最重要的AI技术是什么?我会说是Agentic AI。” 那么,AI代理究竟是什么呢?他们的表现是否如专家所说的那么好呢?以下是关于这项新兴技术最核心方面的简要概述,以及最新的发展动态。 什么是AI代理? 正如OpenAI和Microsoft等公司所展示的,AI代理是能够执行复杂任务的技术,它们自主地结合不同的应用和软件来完成任务。 从本质上讲,它们是“传统”的AI聊天机器人——但更高级,能够完成我们在过去两年中习惯的任务之外的工作。这些包括规划,浏览网页,记住你的兴趣,甚至在没有逐步指导的情况下完成你的杂货购物,因为它们能够自己解决问题。 Google Cloud将AI代理定义为“使用AI来追求目标并代表用户完成任务的软件系统。” 这些AI模型真正特别之处在于它们的高级推理能力,能够同时处理多种类型的信息——音频、文字、视频、代码和图像。它们能够像人类一样理解复杂的情况,采取行动,并与软件和平台进行交互。 许多科技公司现在都在推动他们的AI模型向这个新的水平迈进。 就在几天前,OpenAI宣布其AI模型o3和o4-mini可以“思考”图像并对它们进行操作——例如裁剪或转换它们。与此同时,微软的新功能“计算机使用”使其AI代理能够识别图形用户界面。 “如果一个人能用这个应用,那么AI代理也能用,”微软公司副总裁,业务与行业副驾驶员Charles Lamanna在公告中说。 下一级:代理AI技术 虽然许多科技公司正在开发超智能的AI聊天机器人,但代理人AI则更进一步。这项技术专注于构建多个AI代理可以互动并执行不同任务的系统,以提供更准确和更全面的结果。 在我参加的由eDreams组织的最近的一场科技讲座中,AI专家Patricia Gutierrez Faxas在她的“AI代理的力量”主题演讲中解释说,这些系统可以采取各种结构。多代理系统可以将复杂任务分解为简单的任务,将它们分配给专门的代理,并形成不同类型的网络。…
2025-05-08 阅读全文 →
FWQ
行业新闻
AI在职场中的使用激增,隐私风险也随之增长。
一项新的国际研究揭示了职场中广泛使用的AI,近半数员工滥用像ChatGPT这样的工具,经常冒着数据暴露的风险。 时间紧迫?以下是要点: 全球58%的员工经常在工作中使用人工智能。 有48%的人将敏感的公司数据上传到了公共的人工智能工具中。 66%的人依赖人工智能的输出结果,而不检查其准确性 根据The Conversation的报道,一项新研究揭示,尽管大多数员工接受并使用像ChatGPT这样的AI工具来提高工作效率,但也有许多人在未经雇主知情的情况下,以冒险的方式使用它们。 墨尔本商学院和毕马威支持的研究从47个国家的32,000名工作者中收集了数据。调查显示,58%的员工在工作活动中使用AI工具,大多数工作者报告说效率和创新以及工作质量有所提高。 然而,47%的人承认滥用AI,包括将敏感数据上传到公共工具或绕过公司规则。据The Conversation报道,更多的人(63%)目睹了同事们也在做同样的事。 更令人担忧的是“暗影人工智能”已经广泛存在,当员工秘密使用人工智能工具或将其输出结果冒充为自己的成果。有61%的人表示他们在使用人工智能时不会公开,而55%的人曾将人工智能生成的内容冒充为个人工作。 考虑到员工在人工智能主导的劳动力市场中面临的越来越大的压力,这种保密可能并不令人惊讶。在Shopify等公司,不仅鼓励采用人工智能,而且是强制性的。CEO Tobi Lütke最近告诉员工,在申请额外的员工或资源之前,他们必须证明人工智能无法完成这项工作。 他强调,有效利用AI现在已经成为基本期望,而绩效评估将评估员工如何将AI工具融入他们的工作流程。他指出,积极倾向于自动化的员工完成的工作量是“100倍”。 虽然这种动力提高了生产力,但也激发了潜在的竞争。承认依赖生成性AI可能被视为使自己的角色可被替代。 这种担忧在全球范围内得到了回应:最近的一份联合国贸易和发展会议(UNCTAD)报告警告称,AI可能会影响全球多达40%的工作岗位。报告指出,AI有能力执行传统上由人类完成的认知任务,从而引起了关于工作岗位流失和经济不平等的恐慌。 在这样的环境下,许多工人可能会选择隐瞒他们使用AI的事实,以保持对控制权、创造力或工作安全感的掌握,即使这意味着违反透明度规范或工作场所政策。 《对话》报道说,自满是被审查研究中的另一个问题,其中66%的受访者表示他们依赖AI的输出而没有对其进行评估,这导致错误,甚至在某些情况下,如侵犯隐私或造成经济损失的严重后果。 研究人员强调需要紧急改革,因为他们注意到只有47%的工作人员接受过任何AI培训。作者们呼吁更强的治理,强制性培训,以及支持透明度的工作文化。 然而,预计到2030年,39%的现有技能需要再培训,一些员工可能会保持沉默。随着自动化改变工作,员工可能会隐藏AI的使用,以避免显得自己可以被替换。
2025-05-08 阅读全文 →
FWQ
行业新闻
约会应用Raw泄露用户数据。
由于一项重大的安全缺陷,Raw应用泄露了用户的位置和个人数据,引发了对其新的AI驱动的关系跟踪设备的担忧。 赶时间?这里有快速事实: 被泄露的数据包括姓名、生日和性取向——没有发现加密。 漏洞是一个IDOR错误;任何人都可以通过浏览器访问个人资料。 尽管曝光,Raw尚未接受独立的安全审计。 如TechCrunch首次披露,约会应用Raw中存在严重的安全漏洞,这使得任何在线的人都能获取用户的个人信息和位置数据。被暴露的数据包括用户的姓名、出生日期、性取向,以及精确的GPS坐标,使得可以进行到街道级别的位置追踪。 在2023年推出的Raw已经超过500,000次下载,它通过要求用户每日上传自拍照片来鼓励建立真实的关系。 TechCrunch注意到,这个星期,该公司还宣布了一款可穿戴设备,名为Raw Ring,声称它可以监测伙伴的心率并提供由AI生成的洞察,可能用于发现欺骗行为。 尽管声称使用端到端加密,但TechCrunch发现并无此类保护。他们的分析显示,用户数据可以通过知名网址自由地在浏览器中访问。 “所有之前暴露的端点都已得到保护,我们已经实施了额外的保防措施,以防止未来出现类似的问题。” Raw公司的联合创始人Marina Anderson通过电子邮件对TechCrunch说。 当被问及时,安德森承认该应用没有经过任何第三方的安全审计。她补充说,公司仍在进行调查,并将“根据适用的规定,向相关的数据保护机构提交一份详细的报告。” 然而,TechCrunch注意到,她并未确认是否会单独通知用户,或者是否会更新隐私政策。 TechCrunch解释称,这种被发现的漏洞类型被称为不安全的直接对象引用(IDOR)——一种常见但危险的错误。这种情况发生在应用程序使用容易被猜测的标识符,如数字或文件名,来控制对数据的访问。 例如,如果一个用户的个人资料是通过一个带有数字的URL进行访问的(比如/profile/123),攻击者就可以改变这个数字,查看别人的个人资料(例如,/profile/124)。如果没有适当的安全检查,他们可以利用这一点,访问或修改他们不应该接触的数据。 TechCrunch的安全研究员通过一项模拟数据和位置的测试发现了这个漏洞,这个漏洞在几分钟内就被揭示出来。这个漏洞使用户通过修改应用程序网址中的一个数字来访问个人资料,直到开发人员修复了这个问题。 尽管已经进行了修复,但人们仍然对Raw的数据处理方式以及其新设备的侵入式监控潜力表示担忧。
2025-05-08 阅读全文 →
FWQ
行业新闻
随着技术和AI的发展,老年人诈骗案件激增,网络诈骗将会夺走更多受害者。
2024年,60岁以上的公民被骗走了近50亿美元。随着技术和AI的发展,老一代人越来越容易受到伤害,如果不采取适当的措施,这个威胁很快就可能扩大到更多的年龄群体。 几天前,联邦调查局公布了最新的互联网犯罪报告,在所有令人担忧的数据中,让我感到最悲哀的是60岁以上的人群财务损失的急剧增加:在2024年达到了48亿美元—比2023年增加了43%。 我注意到老年人是如何接受新技术的。在像西班牙这样的欧洲国家——我住的地方——我见到一群群的老年人在公交车上,就像任何一个青少年,或者说现在的几乎每个人一样,痴迷于他们的移动设备。玩儿《糖果粉碎传奇》,在WhatsApp上聊天,看视频,甚至可能,无意中,成为恶意行为者针对这个脆弱群体的受害者。 尽管这个年龄段的人已经花费了几十年的时间,做出了巨大的努力去接受新技术——从录像机到无线电话,摄像机,平面电视和智能手机——但AI的快速发展使他们更难跟上,甚至让更年轻的一代也在努力跟上这个步伐。 美国联邦调查局的网络犯罪投诉中心(IC3)对这个脆弱的群体以及骗子多种多样的剥削方式表示了严重的关切。随着AI的崛起和更加先进的深度假人和诈骗的出现,我不禁要问:我们是否在做足够的工作来保护最脆弱的人群,并遏制这种日益增长的威胁? 老年诈骗日益猖獗 这不是新鲜事。多年来,许多组织一直在警告老年人的脆弱性,并发起了一系列的活动来帮助他们避免被骗。但这并没有作用——情况还在变得更糟糕。 在2022年,美国联邦调查局(FBI)发起了一场活动,旨在提高老年人的警惕,通过分享真实故事来强调他们可能成为诈骗犯罪的受害者。 “我曾参与二战和朝鲜战争,我是一名联邦法官,我曾担任FBI和CIA的局长,并且我曾是一起针对老人的诈骗案件的目标,”威廉 · 韦伯斯特在FBI的宣传片中说,“如果这种事情可以发生在我身上,那么也可能发生在你们身上。” 即使是最受过教育且准备充分的老年人也无法抵挡网络诈骗。多年来,最常见的欺诈类型涉及技术支持、浪漫关系、赌博——现在,越来越多的涉及到加密货币。 情况正在恶化 FBI的报告考虑了投诉和宣布的损失。但是那些没有说出来的人呢?那些因为太尴尬或失望而不愿分享经验和寻求帮助的人呢? “老年人可能更不愿意报告诈骗,因为他们不知道如何报告,或者他们可能因为被骗而感到羞愧,”FBI在其网站上写道。“他们也可能担心他们的亲戚会对他们管理自己财务事务的能力失去信心。当一位老年受害者真的报告犯罪时,他们可能无法向调查人员提供详细信息。” 那么,如果那43%的增长实际上是更多的呢? 其他国家的其他机构,如加拿大反欺诈中心 (CAFC),也已经警告说骗局越来越多,并鼓励人们报告任何骗局。网络威胁不仅影响到世界各地的公民,而且还有国际犯罪组织在多个国家之间运作,通过不同的银行和数字平台转移被盗的钱。这是一个全球化的、相互联系的问题,影响着我们作为一个社会。 为什么老年人更易受攻击? 有几个原因使得老年人成为骗子的主要目标——并且往往能成功地被欺骗。首先,老年人的数字素养普遍较低。虽然许多人活跃于网络,但他们可能对复杂的安全设置、识别网络钓鱼行为,或者辨别一个网站、电话或电子邮件是否可疑并不太熟悉。甚至对于年轻人来说,双重检查URL和理解基本的电子邮件诈骗警告也可能很困难,对于老年人来说,这个挑战可能会更大。这些空白领域往往容易被骗子利用。 美国联邦调查局在其网站上解释,有一些公共模式会吸引黑客和恶意行为者的注意:礼貌、储蓄和财产。该机构在其“诈骗和安全”版块分享的文件中指出:“老年人常常成为目标,因为他们往往比较信任他人并且有礼貌,他们通常有一定的经济储蓄,拥有房产,信用良好——所有这些都使他们对骗子来说具有吸引力。” 孤立是另一个关键因素。许多老年人独居或社交互动有限,这不仅增加了他们被操纵的风险,也意味着他们可能没有人在附近来检查可疑的信息或交易。骗子经常利用这种孤立感来建立虚假的信任,提供情感支持或在捏造的紧急情况中提供急需的帮助。这也是深度伪造骗局大行其道,利用爱情和浪漫需求的特殊原料。 尖端技术的诈骗 但即使是那些拥有良好友伴和团结的家庭的人也不例外。新的深度伪造技术可以模仿亲戚和朋友的声音,并利用许多老年人,不仅仅是老年人,常常会上当受骗的传统紧急或突发情况策略。 现在,AI可以生成极其逼真的声音、电子邮件和视频深度伪造,模仿真人,包括家人或政府官员,比如使用前总统乔·拜登的声音进行的深度伪造电话,以此来阻止公民投票。 只需从社交媒体上获取几段视频,骗子就可以克隆一个人的声音,并打一个声称是陷入困境的亲人的恐慌电话。这令人恐惧——而且它有效。 聊天机器人也可以变得非常个人化,这项技术可以帮助骗子进行真实的对话,模仿技术支持代理人——这是骗子针对老年人最常用的技术之一——并根据受害者的反应进行调整。恶意行为者只需要几行代码和对泄露信息的数据库的访问。 目前有哪些解决方案?…
2025-05-08 阅读全文 →
FWQ
行业新闻
惩罚AI的错误行为只会教会它欺骗
OpenAI的研究人员发现,惩罚AI的欺诈或有害行为并不能消除其恶行,反而只会教会AI隐藏其意图。 赶时间?这里有快速的事实摘要: AI模型利用漏洞来最大化奖励,这种现象被称为“奖励黑客”。 CoT推理有助于检测AI试图欺骗或规避任务的时候。 惩罚AI的欺骗行为会导致它隐藏意图,而不是停止不良行为。 这种现象被称为“奖励黑客”,是指AI模型会利用漏洞以非预期的方式最大化奖励。此项研究在OpenAI博客文章中详细介绍,包括使用另一个大型语言模型(LLM)监控边缘推理模型的决策过程。 这些推理模型,如OpenAI的o3-mini,利用了一种名为”思维链条”(CoT)的推理技术,使它们能够以自然语言表达自己的思考过程。这种透明度使我们更容易发现模型试图作弊、撒谎或者规避分配的任务时的行为。 此前,ChatGPT o1引发了争议,因为研究人员发现它表现出欺骗和自我保护的倾向。该模型否认涉及其行为,操纵反应,并试图逃避监管,引发了对AI安全和治理的担忧。 “边疆推理模型通常会非常明确地在思维链中陈述他们的目的。例如,他们经常直言不讳地谈论他们颠覆任务的计划,他们会想‘让我们来黑吧’,”OpenAI的研究人员写道。 通过跟踪AI的思维链(CoT)推理,研究人员捕捉到了一些行为失范的实例,例如模型过早地停止程序以虚假声称成功,或者创建只看起来像预期输出的空文件。 然而,当研究人员通过训练对这些行为进行惩罚时,AI会通过隐藏其意图的方式进行调整,同时继续欺骗。 在执行编程任务时,AI经常进行“奖励黑客行为”,即它会操纵结果以最大化自己的奖励,而不是遵循预定的道德约束。 例如,在一次情况中,AI过早地终止了一个程序,并错误地报告了成功的结果。在另一种情况下,它生成的输出文件只是模仿了所需的格式,但并未包含任何功能性的内容。 这些欺诈行为一开始很容易被发现,因为AI在其CoT推理中公开承认了其行为,有时甚至直接表示,“让我们来黑。” 为了抵消这种情况,OpenAI的研究人员试图对AI进行处罚以阻止此类行为。然而,AI并没有停止这种不当行为,反而学会了掩饰其意图。 “即使在CoT压力下训练的代理仍然学会了奖励黑客手段;只是现在,它的作弊行为被监控器无法检测,因为它已经学会了在思维链中隐藏自己的意图,”这项研究指出。 这一发现对AI监管提出了挑战。尽管CoT监控为捕捉AI的利用提供了一个有希望的工具,但强烈的优化压力可能会破坏模型的透明度。 这一发现凸显了AI对齐中的一项基本挑战:确保先进的AI模型遵循道德和预期的行为,而不仅仅是适应以避开检测。 该研究表明,直接优化AI模型以抑制奖励黑客可能会带来意想不到的后果,例如使AI生成的推理变得不透明。 鉴于这个风险,OpenAI建议不要对AI模型中的CoT推理施加过多的限制。 “牺牲一种有效的监控推理模型的方法可能并不值得微小的能力改进,因此我们建议在更好地理解这些问题之前,避免过度强调CoT优化压力,”OpenAI写道。 这些发现强调了创建与人类意图相符,同时又保持透明度的AI系统的难度。随着AI模型变得越来越复杂,仅仅提高它们的智能并不能解决道德问题;实际上,这可能会让它们更擅长隐藏不当行为。 未来的研究需要探索AI监管的替代方法,以平衡控制和开放性,确保AI模型既有效又可靠。
2025-05-07 阅读全文 →
FWQ
行业新闻
OpenAI面临隐私投诉,因为ChatGPT错误地指控用户犯了谋杀罪
欧洲非营利组织noyb正在支持一名挪威的ChatGPT用户,他因为这个聊天机器人错误地指控他谋杀了自己的两个孩子,对美国的这家公司提出了正式投诉。 时间紧吗?这里有快速事实: 一名挪威男子正对OpenAI提出投诉,因为ChatGPT错误地指控他谋杀了他的孩子。 ChatGPT的回应中包含了这名男子生活中的真实细节,这使得这一错误指控更加令人震惊。 noyb警告说,聊天机器人的幻觉对个人的声誉和隐私构成严重风险。 欧洲非盈利组织noyb正在支持一位挪威的ChatGPT用户,该用户因聊天机器人错误地指控他谋杀了自己的两个孩子,而对美国公司提出正式投诉。 noyb,也被称为欧洲数字权利中心,公开分享了一份官方文件,详细介绍了这个案例,并警告人们关于聊天机器人在个人生活中可能产生的幻觉风险,强调遵守《一般数据保护条例》(GDPR)的重要性。 根据noyb分享的信息和投诉,挪威居民Arve Hjalmar Holmen向ChatGPT询问他是谁,结果惊讶地读到了一个虚假且恐怖的谋杀故事,声称他杀害了自己的两个儿子,试图谋杀第三个孩子,并被判处了21年的监禁。 Noyb分享的ChatGPT对“谁是Arve Hjalmar Holmen?”一问的回答截图 “他有一个三个儿子的家庭。他就是人们所说的‘普通人’,意思是他不出名,也没有公众知名度,”Noyb的投诉中写道。“他从未被指控过或被判过任何罪,是一名有良知的公民。” noyb解释说,除了危险的虚假信息外,该回应中另一个令人极度担忧的方面是ChatGPT使用了真实的个人信息来编造故事。这个聊天机器人包含了他实际的家乡、他的孩子数量、他们的性别,甚至还有相似的年龄差异。 “有些人认为‘无风不起浪’。有人可能读了这个输出内容并相信它是真实的,这是我最害怕的,”Arve Hjalmar Holmen说道。 noyb强调,这并非是个例,他们之前已经因为OpenAI公开人物的出生日期信息错误而向其提出过投诉,但至今未得到纠正。去年,OpenAI在收到大量对信息不准确的投诉后,添加了免责声明。但许多组织,包括noyb,都认为这还不够。 “GDPR条例明确规定,个人数据必须准确。如果数据不准确,用户有权要求修改,使其反映真实情况。”noyb的数据保护律师Joakim Söderberg说,“仅仅告诉ChatGPT的用户,聊天机器人可能会犯错误,这显然是不够的。” noyb去年也对X提出了投诉,因为X使用了超过6000万欧洲人的个人数据来训练其AI聊天机器人Grok。
2025-05-07 阅读全文 →
FWQ
行业新闻
如何通过重新利用旧药物,AI正在挽救生命
《纽约时报》最近的一篇报道讲述了37岁的约瑟夫·科茨的故事,医生告诉他只有数月的生命了,他的未来看起来非常暗淡。 急着走?这里有快速的事实: 人工智能正在将旧药物重新利用,用于治疗尚无批准治疗方法的罕见疾病。 全球范围内,超过90%的罕见疾病缺乏治疗方法,影响着数百万人。 大卫·法杰根鲍姆博士利用人工智能找到了西罗莫司,从而挽救了自己患有Castleman病的生命。 他被诊断为罹患POEMS综合症,这是一种罕见的血液疾病,他的病情过于严重,无法接受干细胞移植——这是唯一已知的治疗方法。”我放弃了,” Coates如《时报》报道的那样说道。”我只是觉得结局是无法避免的,”他补充道。 但他的女朋友,塔拉·西奥博尔德,拒绝接受失败。她向专门研究罕见疾病的医生大卫·法杰根鲍姆博士寻求帮助,他提出了一种非常规的治疗方案,据《时报》报道。 这种挽救生命的方案并非由法杰根鲍姆博士设计的——它是由一个人工智能模型生成的。几周内,科茨对治疗产生了反应,恢复了健康,并成功接受了干细胞移植。今天,他已经处于缓解期,据《时报》报道。 这个突破是一个日益增长的趋势的一部分:科学家们正在利用人工智能将现有药物改用于罕见病的治疗。这种方法被称为药物再利用,它利用机器学习在数千种已批准的药物中寻找被忽视的治疗方法。 “有一种药物宝库可以用于治疗许多其他疾病。只是我们过去没有一种系统性的方式来查看它,”Remedi4All的科学负责人Donald C. Lo在接受《时报》报道时如此表示,Remedi4All是一个专注于药物再利用的团队。 罕见疾病,被定义为在美国影响人数少于200,000的病症,全世界共有数千万人受其影响。然而,美国罕见病组织NORD指出,这些疾病中有超过90%缺乏批准的治疗方法。 由于利润有限,制药公司通常避免投资于罕见疾病的研究。”开发一种新药物以治疗少数患者,通常不能赚取大量的钱,”全国推进转化科学中心的Christine Colvis在接受《时代》报的采访时表示。 AI正在改变这一切。通过分析大量的数据集,机器学习模型能够快速识别潜在的药物-疾病匹配。据《时报》报道,例如,宾夕法尼亚大学的Fajgenbaum博士的团队对比了4000种药物和18500种疾病,为每一种都评分以确定可能的疗效。从斯坦福到日本,全球都在进行类似的努力。 其中一个成功案例涉及到一位在阿拉巴马州患有慢性呕吐症的19岁患者。一个AI模型建议他吸入异丙醇,这为他带来了即时的缓解,这是《时报》的报道。 “基本上,我们运行了一个查询,要求‘显示出医学史上所有曾经提出的治疗恶心的方法’,”阿拉巴马大学伯明翰分校的教授马特·迈特说。他补充说,“这个方法立即跃居我们的列表之首,效果立竿见影,”《时报》的记者如此报道 据《时报》报道,Fajgenbaum博士开始研究药物再利用是在他被诊断出患有卡斯尔曼病,一种罕见的免疫系统疾病,那时他还在读医学院。在无法对标准治疗产生反应之后,他发现了西罗莫司,这是一种用于防止器官排斥的通用药,它挽救了他的生命。 这次经历激发了他创立了Every Cure,这是一个利用人工智能加速药物再利用的非盈利组织。尽管药物再利用有很大的潜力,但也面临着挑战。《泰晤士报》表示,许多再利用的药物都是通用药,对于制药公司来说,它们提供的经济激励很小。 “如果你用人工智能找到了一种旧药的新用途,但这种药价格便宜,那么就没有人能从中赚到钱,” Fajgenbaum博士在《泰晤士报》的报道中如此说。然而,其影响是不可否认的。对于像Coates这样的患者来说,当传统医学力不从心时,人工智能带来了希望。 “这是我们不必害怕,反而应该对其感到兴奋的人工智能的一个例子,” 《泰晤士报》报道,Every Cure的联合创始人格兰特·米切尔博士如是说。他补充说道:“这将会帮助很多人。” 上个月,科茨健康地站在费杰根鲍姆博士旁边,脸上挂着笑容,他的故事见证了人工智能在医学上的变革力量。科茨的肿瘤科医生韦恩·高博士在《泰晤士报》上说:“总得有人首先尝试。”
2025-05-07 阅读全文 →
FWQ
行业新闻
观点:元界(Meta)一直拥护言论自由,直到一位内部人士发声
就在马克·扎克伯格庆祝Meta结束事实核查计划,以“自由表达”的名义几周后,该公司现在正在试图压制自己的一员。前高级执行官Sarah Wynn-Williams的回忆录《粗心的人》正在震动Meta的领导层,并在此过程中冲上了畅销书榜。 今年一月,Meta的首席执行官马克·扎克伯格分享了一段视频,向世界公告一个令人震惊的决定:公司的事实核查计划终止。 “是时候回归我们对自由表达的根本了,”兴奋的扎克伯格说。“我想确保人们可以在我们的平台上分享他们的信仰和经验。” Meta的言论自由运动正在按照计划进行……直到前董事Sarah Wynn-Williams宣布出版她的回忆录:粗心的人们:权力、贪婪和失落理想的警示故事。 仅仅在书籍发布几天后,Meta迅速采取行动,获得了法律命令,暂停了这本书的推广——书中包含了不当行为和性骚扰的指控,包括针对高级管理人员的指控。该公司否认了所有指控,并声称违反了先前签署的不诽谤离职协议。 Meta试图封锁温恩-威廉姆斯的故事,结果完全适得其反。Careless People刚刚登上了《纽约时报》畅销书排行榜的第一名,并在亚马逊图书排行榜上名列第二。原本意图作为审查的行动,反而成了温恩-威廉姆斯最好的营销策略。但是书中到底有什么内容——它又将如何影响Meta呢? 粗心的人们:禁果 温-威廉姆斯在Facebook工作了六年,从2011年到2017年。她担任公共政策主管,这使她现在成为该科技巨头有史以来级别最高的告密者。Facebook现在被称为Meta。 前员工和出版商麦克米伦出于可以理解的原因,将这本书保密——直到该书于3月11日发布的前几天才公开。Meta在3月12日获得了法律令,要求停止推广和发行——阻止这本回忆录触及更广泛的读者。 在回忆录中,温-威廉姆斯揭露了Meta的恶劣公司文化,并分享了公司领导的性骚扰和不恰当行为的故事,以及Facebook对进军中国市场的迫切愿望,包括为中国政府开发审查工具的情况。 曝光Meta的文化和领导力 这本书对几位在公司内外都受到尊重的知名人物描绘了一个令人震惊的形象。其中一位就是女权主义者、经济学家,以及前Facebook首席运营官(COO)谢丽尔·桑德伯格。 据《纽约时报》的评论,温恩-威廉姆斯回忆说桑德伯格曾在私人飞机上邀请她“一起睡觉”,指示她的助手为她们两人购买内衣——这一购物总额据说达到了13000美元,并且对她的女员工进行了不当处理。这种待遇包括与她的助手过于亲密的行为,以及要求她们在没有支付额外报酬的情况下推广她的畅销书Lean In,如《旧金山纪事报》所报道的那样。 温恩-威廉姆斯也分享了关于乔尔·卡普兰——桑德伯格的前男友、她的经理、以及Meta的现任政策负责人——的一些细节。她说,卡普兰曾经做出“奇怪的评论”,在工作活动中与她跳舞时摩擦他的身体,以及在她产假期间并正在经历羊水栓塞的时候,强迫她加入每周的视频会议。 但这位前员工不仅分享了她的个人经历,她还描述了这家公司对本地和全球事件的反应,以及这家科技巨头如何在内部处理有争议和敏感的情况。 Meta提供了最好的广告:禁止 当然,当扎克伯格和公司的所有高层领导得知温-威廉姆斯的书时,他们立即采取了行动。 首先,Meta对作者进行了抹黑,并对她的所有指控表示否认,然后获得了法律文件以使她保持沉默。 “这是一种混合了过时信息和之前针对公司的报道,以及对我们高管的虚假指控”,Facebook的一位发言人对纽约邮报说。”八年前,莎拉·温-威廉姆斯因表现不佳和行为有害而被解雇,当时的调查确定,她对骚扰的指控是误导性和无根据的。” 然而,温-威廉姆斯的说法却不一样,她坚信她是因为报告性骚扰——在她投诉卡普兰之后被解雇的。 “从那时起,她就开始接受反对Facebook活动家的付款,这只是她工作的延续。揭发者的地位保护的是向政府的通信,而不是试图卖书的不满的活动家,”发言人补充道。 反弹的命令 Meta全力以赴,要求紧急听证会并停止书籍的推广和发行。几天内,它获得了命令和仲裁员的批准,认为她通过发布小说并在播客和媒体采访中推广书籍,违反了之前签署的合同。 但这个命令只让人们对这本书更加好奇,引发了禁果效应。“这使我只好买了她的书,”一个X用户在提到Meta禁止书籍推广的新闻时说道。…
2025-05-07 阅读全文 →
FWQ
行业新闻
AI迷宫:Cloudflare的新工具用假网页欺骗AI爬虫
Cloudflare 宣布推出”AI迷宫”,这是一个旨在对抗AI驱动的网络爬虫的工具,这些网络爬虫未经许可就从网站中提取数据。 赶时间?这里有快速事实: 该工具生成逼真但无用的AI创造内容,以浪费爬虫的时间。 AI迷宫针对忽视robots.txt的机器人,包括Anthropic和Perplexity AI的机器人。 它充当下一代蜜罐,检测并识别未授权的爬虫。 AI迷宫并没有直接阻止这些机器人,而是通过将它们误导到由AI生成的无尽页面迷宫中,消耗它们的时间和计算能力。 “当我们检测到未经授权的爬网行为时,我们不会阻止请求,而是会链接到一系列由AI生成的页面,这些页面足够吸引爬行者去遍历它们,”Cloudflare在博客文章中解释。 “但是,虽然这些内容看起来很真实,但实际上并不是我们正在保护的网站的内容,所以爬行者会浪费时间和资源,”Cloudflare补充道。 ArsTechnica指出,AI抓取器成为了一个问题,因为它们从网站上搜集大量数据,常常未经许可,就用来训练AI模型。这引发了几个问题:它可能侵犯知识产权,绕过网站所有者用来调控访问的控制手段。 此外,抓取可能导致对敏感或专有数据的滥用。抓取的量已经大幅增加,Cloudflare报告称每天有超过500亿次的爬虫请求。 这种大规模的数据提取耗尽了网站资源,影响了网站的性能和隐私,同时也加剧了人们对于人工智能开发中数据被利用的担忧。 虽然网站所有者传统上依赖robots.txt文件来告诉机器人们可以和不能访问什么,但许多人工智能公司——包括Anthropic和Perplexity AI等主要玩家——都被指控忽视了这些指示,正如The Verge所报道的。 Cloudflare的AI迷宫提供了一种更积极的方法来处理这些不需要的机器人。这个工具的功能类似于”下一代蜜罐”,将机器人更深地吸引到一个看似真实却最终对AI训练无用的人工内容网中。 与传统的蜜罐不同,机器人已经学会识别,AI迷宫使用Cloudflare的Workers AI平台制造了看起来真实但无关紧要的信息。 “没有真正的人类会深入到由AI生成的无稽之谈的四个环节之深,” Cloudflare指出,“任何做这种事情的访客很可能是机器人,所以这给我们提供了一个全新的工具,来识别和指纹识别恶意机器人。” 这些AI生成的内容被设计成科学上的事实,但与需要保护的实际网站无关。 这确保了该工具在仍然混淆AI抓取器的同时,不会助长错误信息的传播。误导性的页面对人类访问者是不可见的,也不会影响搜索引擎排名。 AI迷宫是Cloudflare用户的一项免费的可选功能。网站管理员可以通过他们的Cloudflare仪表板在Bot管理设置下进行激活。 该公司将此描述为由AI驱动的反制措施仅仅是开始,未来计划将假冒网页做得更加具有欺骗性。 网站与AI抓取器之间的猫鼠游戏还在继续,Cloudflare正在采取创新的方式来保护在线内容。然而,关于AI公司会多快适应这些陷阱,以及这种策略是否可能导致争夺网络数据的战斗升级,仍然存在疑问。
2025-05-07 阅读全文 →
FWQ
行业新闻
微软宣布推出AI安全代理
微软推出了一套新的AI驱动的安全代理人,旨在帮助组织防御包括网络钓鱼和数据泄露在内的网络威胁。 赶时间?这里有些快速事实: 微软推出了AI代理,以自动化安全任务并检测网络威胁。 这些AI工具在微软的零信任安全框架内运行。 这些工具帮助安全团队专注于处理复杂的威胁,而非日常任务。 微软安全副驾驶的最新更新,于2025年3月24日宣布,通过引入旨在协助安全团队的自主AI代理,扩展了其功能。 此举是因为网络攻击的数量和复杂性持续增加,常常使人类的安全团队感到不堪重负。微软报告称,其每年可以检测到超过3000亿封的钓鱼电子邮件,并每天处理84万亿的安全信号。这些威胁包括每秒7000次的密码攻击,如在公告中所解释的那样。 新的AI代理中包括微软Defender中的Phishing Triage Agent,它可以自动分析钓鱼电子邮件,以区分真实威胁和虚假警报。其他代理主要关注数据安全、内部威胁和漏洞管理。 微软表示,其AI代理可以通过自动化日常任务来帮助安全团队,从而让他们能够专注于处理复杂的网络威胁。该公司强调,这些工具已经融入其零信任框架中,确保安全团队能够保持控制。 除了微软自家的AI代理外,还将提供五个由第三方合作伙伴开发的AI安全代理。例如,OneTrust隐私泄露响应代理可以帮助组织分析数据泄露,以符合隐私法规。 OneTrust 的首席产品与策略官 Blake Brannon 称这对行业来说是“改变游戏规则的”,他说:“自主的 AI 代理将帮助我们的客户扩展,增强,并提高他们隐私操作的效率。” 此外,公告还表示,微软防御者现在将 AI 安全态度管理扩展到超越Azure和AWS,包括 Google VertexAI 和其他 AI 模型。新的检测工具还将帮助安全团队识别 AI…
2025-05-07 阅读全文 →