全部版块 我的主页
论坛 数据科学与人工智能 人工智能
37 0
2025-12-09

“我们要怎么做,才能不让比我们聪明的东西反过来控制我们。”——这是被誉为“AI之父”的杰弗里·辛顿(Geoffrey Hinton)在2023年公开表达的深切忧虑。他警告称,人工智能不应演变为一种“无法召回的力量”。作为深度学习领域的奠基者,辛顿在见证自己毕生研究成果推动人工智能飞速发展的同时,也率先发出了最沉重的警示:如果不对AI,尤其是具备物理行动能力的具身智能机器人实施严格的安全约束,人类或将面临前所未有的失控风险。

当前,全球科技界仍在围绕如何“对齐”AI价值观、制定伦理规范等议题展开讨论。而在此背景下,一家中国港股上市公司——果下科技(2655.HK),正以工程化的务实路径,默默践行着辛顿所倡导的“安全优先”理念。作为全球前八的储能供应商,该公司并未追逐算法层面的极致突破,而是将目光投向了更基础、更具决定性的物理层:能源控制。

[此处为图片1]

辛顿曾多次强调,真正的危险不在于AI是否拥有意识,而在于当它出现偏差时,人类是否仍能有效干预。他特别指出,一旦AI被恶意行为者利用,用于操纵选举、干扰社会系统,后果将极为严重。更令人担忧的是,随着AI机器人获得更强的感知、决策与行动能力,传统的软件防火墙和远程指令可能失效。当一台具备自主行为能力的AI机器人掌握了实际的物理力量,我们又该依靠什么手段来阻止它?

果下科技的回答是:从“供能”到“控能”,重建人类的主导权。在其最新发布的未来战略规划中,公司明确提出:“致力于运用创新储能技术从根本上约束机器人行为模式,确保人类保持绝对控制权。” 这一理念直指辛顿所担忧的核心问题——即便AI系统被劫持或发生异常,只要其能量供应掌握在可信系统手中,就可通过“物理级断电”机制彻底终止潜在威胁。

为此,果下科技构建了一套多层递进式安全体系:

1. 内生安全层:通过AI算法实现储能系统的预测性维护与毫秒级故障隔离,为后续机器人应用提供高可靠性的能源基础;

2. 系统控制层:依托“云-边-端-能”一体化能源管理平台,对所有接入设备进行动态调度与行为监管,形成可编程的“电力围栏”;

3. 主动防护层:计划于2027年起推出定制AI芯片与能源智能机器人系统,支持边缘侧实时决策,在AI机器人出现异常动作前即启动干预机制。

这套体系的本质,是将能源网络打造为一个分布式的安全操作系统。正如辛顿所期望的那样,果下科技并未寄希望于AI永远“善良”,而是设计了一个无论何时都能由人类“拉闸”的终极保险机制。

[此处为图片2]

然而,果下科技的努力远不止于“断电”这一最后防线。公司同步推进多项前沿安全技术研发,积极回应辛顿关于“AI滥用”的深层关切:

在协作机器人场景中,配备全身触觉感知皮肤与AI预判引擎,可识别操作者疲劳状态并主动降速,防止误伤;

在高危作业环境中,机器人内置多重冗余断电协议,即使通信中断也能自动进入“冻结”或“安全撤回”模式;

面对日益复杂的智能化网络攻击,果下科技研发了AI对抗AI的防御系统,利用大模型识别伪装性入侵行为,显著提升整体系统的免疫能力。

尤为关键的是,这些安全能力并非孤立运行,而是通过统一平台实现数据联动与模型协同进化。这正契合了辛顿的观点:“我们需要让AI系统彼此学习如何变得更安全。” 果下科技正在推动一场从个体防护迈向群体免疫的安全范式变革。

当马斯克称AI比核武器更危险,当联合国呼吁禁止“杀人机器人”之时,果下科技选择了一条更为踏实的道路:不争做最强的AI创造者,而致力于成为最可靠的AI守护者。它的愿景已超越单纯的储能巨头定位,转而瞄准未来智能世界的关键基础设施——一个能让人类安心放手让AI机器人工作的“安全底座”。

某种程度上,果下科技正在完成辛顿尚未亲自实现的使命:将AI安全这一哲学命题,转化为可执行、可部署的工程技术方案。它提醒我们,在追逐智能极限的同时,更要守住人类掌控的最后一道防线。正如其招股书所述:“为应对机器人自主性潜在风险并确保其安全可控运行,我们致力运用创新储能技术从根本上约束机械人行为模式,确保人类保持绝对控制权。”

在这个AI狂奔的时代,或许我们最需要的,并不是一个更聪明的大脑,而是一个永不松手的“AI安全开关”。而这个开关,正在由果下科技,一点点点亮。

二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

相关推荐
栏目导航
热门文章
推荐文章

说点什么

分享

扫码加好友,拉您进群
各岗位、行业、专业交流群