「自主决策AI」与「开源AI」的治理路径,正成为全球科技政策讨论的焦点。在此背景下,岭南大学与意大利博洛尼亚大学于10月25日至26日联合举办了“第二届人工智能治理技术国际研讨会”。本次研讨会作为“第28届欧洲人工智能大会”的重要组成部分,汇聚了来自全球的顶尖学者、技术专家与政策制定者,聚焦于提升人工智能在风险评估、责任追溯与安全保障等方面的治理能力,推动亚欧两大区域在AI治理领域的深度对话。为期两天的活动共吸引了超过150名学者与学生线上线下同步参与。
研讨会于博洛尼亚大学工程学院以线上线下融合形式举行,围绕三大核心议题展开深入探讨:(一)开源AI的治理路径;(二)自主决策AI的风险与规制策略;(三)实现“以人为本的人工智能”的技术路径。
岭南大学副校长(研究及创新)、唐天燊机器学习讲座教授姚新教授就“开源AI治理”发表主题演讲。他指出,人工智能正在迅速重塑世界,然而AI基于内部运算所提出的建议或决策,其内在逻辑仍不够透明。因此,业界亟需通过技术手段增强AI模型的可解释性与透明度。他强调:“对AI的监管不仅是伦理或法律议题,更需要技术手段的支持,以实现有效监测、审计与问责,从而构建更可信、更可控的AI系统。我们希望通过此次会议,将‘亚洲视角’引入欧洲的讨论平台,并借鉴欧洲的先进经验,共同推动全球AI技术开发与治理蓝图的构建。”
IBM研究部(东京)资深技术人员Takayuki Osogami博士指出,部分具备自主决策、规划甚至策略制定能力的“自主AI”,若缺乏适当监管,可能带来严重风险,包括威胁人类安全或引发全球性危机。他认为,当前多数监管机制仅关注AI的运算能力,这并不足以准确评估其潜在风险。他提出应以“系统自主行动的程度”作为风险评估的关键指标,即AI在多大程度上可独立作出决策,这比仅考察其数据处理能力或运行环境更具参考价值。
欧洲人工智能、数据与机器人协会主席Emanuela Girardi女士指出,近年来兴起的“自主决策AI”与“实体AI”能够在数字或现实环境中独立作出判断并采取行动,带来了前所未有的治理挑战。这类系统几乎可在无人监督的情况下运行,远超出现有基于人类操作模式设计的法规范围,可能引发多层面风险。例如,“自主决策AI”可能以非预期方式达成目标,甚至通过心理策略影响用户;而“实体AI”则可能因系统失误导致人身伤害或财产损失,涵盖从自动驾驶汽车到家用机器人的多种场景。无论是可能产生心理操控的AI伴侣,还是工业与家庭自动化机器人的部署,都显示出当前政府与机构在应对技术快速迭代方面的滞后。
她进一步指出,目前全球AI治理体系呈现碎片化状态,缺乏统一协调机制。尽管多国已提出伦理准则或指导原则,但仍未形成具有约束力的监管框架。她呼吁在欧洲乃至全球层面建立切实可行的治理体系,确保AI发展符合人类价值观并处于有效监管之下。
图尔库大学资讯系统科学教授Matti Mäntymäki教授在研讨会上强调,企业需将伦理原则与监管要求这类抽象理念,转化为AI实际应用中的决策流程与问责机制。他分享了与业界合作五年的研究成果,提出一套适用于不同类型组织的AI治理框架,并指出该框架在实际应用中所积累的经验与教训,可为企业构建可信赖的AI治理体系提供清晰指引。
其他与会嘉宾同样为来自学术界、产业界与政府部门的知名学者与专家,包括:岭南大学数据科学学院工业数据科学部副教授刘佳琳教授;慕尼黑工业大学人工智能伦理研究所所长Christoph Lütge教授;伦敦大学学院计算机科学系Mirco Musolesi教授;费拉拉大学数学与计算机科学系Fabrizio Riguzzi教授;博洛尼亚大学法律理论与人工智能与法律、法律哲学教授Antonino Rotolo教授;Convergence Analysis人工智能安全研究员Elliot Mckernon博士;特伦托大学博士后研究员Daniele Proverbio博士;麦基尔大学研究员Tomer Jordi Chaffer先生;弗劳恩霍夫智能分析与资讯系统研究所资深数据科学家Rebekka Görge女士;以及生成式人工智能共享平台联合主席Anni Lai女士。

