二、研修室里的交锋
第一周的课程被伊娃称为"伦理解构训练"。哈佛大学的桑德尔教授通过远程连线,让学员们模拟"电车难题"的现代科技版本:当自动驾驶汽车必须在撞向闯红灯的行人与牺牲车内乘客间选择时,算法该如何编写?
"这根本不是技术问题。"尼日利亚的生物信息学家奇克率先拍桌,他的研究涉及非洲遗传病数据库的隐私保护,"你们在讨论代码时,有没有想过不同文化对生命价值的判断?在我的部落,老人的智慧比任何算法都重要。"
阿米尔立刻反驳:"但自动驾驶需要普适标准!如果每个地区都按自己的文化编程,跨境行驶时只会造成更多混乱。"
争论持续了四个小时,直到林夏调出一组数据:在日本,自动驾驶伦理问卷显示78%的受访者认为"应优先保护行人";而在德国,这一比例仅为41%。"我们需要的不是统一答案,而是寻找差异背后的伦理逻辑。"她的话让会议室陷入沉思。
实地研修选在日内瓦的国际红十字会总部。当学员们看到那些因战乱地区医疗资源分配算法不公而延误治疗的病例时,玛利亚突然红了眼眶。"我设计系统时只想着缩短运输时间,却从没考虑过......"她哽咽着说不出话,阿米尔默默递给她一瓶水,这个动作让林夏想起他们在讨论无人机武器化时的激烈争执——那时的阿米尔坚信"技术中立论",而玛利亚则认为开发者必须为技术用途负责。
转折发生在苏黎世联邦理工学院的实验室。学员们被要求分组设计"基因编辑伦理评估模型",林夏与奇克分到一组,他们的任务是为镰状细胞贫血症的基因治疗制定风险阈值。奇克坚持要加入"社区参与度"指标,因为在非洲,很多部落对基因技术存在文化禁忌;林夏则担心这会延误治疗时机,两人的分歧差点让项目搁浅。
"你们看过这个吗?"深夜,林夏在宿舍发现奇克留下的论文,里面记录着他家乡因误解基因检测而发生的悲剧:2019年,一个村庄集体拒绝遗传病筛查,导致十三个儿童夭折。"我不是反对技术,"奇克在附言中写道,"只是不想让伦理成为另一种形式的霸权。"