重新回看了一下“【視頻】信仰與學術講座:一位基督徒談人工智能”,图像效果比现场听的时候好了太多。(注:顺便提醒一下,这个网站目前ssl认证似乎过期,只能使用http协议访问,https在我的网络环境中无法打开)。

现场听的时候,我完全看不清图像,一边在备课,许多信息都遗漏了,事后发表了一些不太公平的评论,需要收回。当时我觉得讲员没有很清晰地讨论“智能”,“人工智能”,“情感”,“智慧”,“意识”(也包括后来一位听众回应时提到的“灵魂”)等关键概念,所讲的内容有些不着边际。重听的时候发现,其实这些概念在讲座中都有。所以我仔细反思了一下自己在听的时候为何会出现这样的观点。看起来是因为两个缘故。

第一,在视频的16:00-19:00,讨论Alphago与李世石的对局。讲员似乎并不清楚对于这件事的公开报道。他提到“三盘棋,李世石赢了第2盘”,显然和公开报道的信息不符。他提到“这位代替alphago落子的弟兄是台湾的潘弟兄”,这似乎也不对。视频中出现的是Aja Huang(黄仕杰)。但我后来发现自己下意识感觉不太对的地方是,讲员说这位潘弟兄在和李世石对弈的时候,在第二局质疑自己设计的alphago程序,**有三步棋没有按照AlphaGo的指令落子,而是按照自己的理解修改了落点,**并且因此输掉了第二盘。于是引申出一个主要的教训——

时间线(00:17:50-00:18:37): “Alphago能下过李世石,但人类棋手按照自己的想法改了三步,后面就完全输了。这个担忧是什么呢?这个担忧就是程序设计者的辨别分析干不过自己设计出来的程序指令,你无法修改它,你也自己不可能再修改它。你要听命于它,即便从前是你给它程序,你现在要听命于它。你没办法挣扎出来,你是设计者,但你不再拥有主权……”

我觉得这里可能有事实上的误会。李世石和alphago下了5盘棋,因为“神之一挖”,赢了第4盘。所以不是三盘里面赢了第二盘。代替alphago下棋的是黄仕杰,他从未说过自己擅自修改alphago指令的问题——事实上也不太可能。alphago和李世石的比赛,赢棋奖金高达100万美元,而且网络直播,后台技术人员和研究人员无数双眼睛盯着棋盘,事后也有详细的日志分析,检讨alphago在李世石那步“挖”走出之后的详细计算过程,知道alphago在79手犯错之后,到87手才发现自己的错误,而研究团队最后并没有找出alphago犯错的原因。综合看起来,不太可能由落棋的工作人员临场修改3步之多而输掉这局。没有任何公开报道可以找到这种说法,不知道是否讲员在听这个轶事过程中是否有误会。如果真有其事,将是一个巨大的新闻事件……

另一方面,事后检讨认为,在李世石的“神之一挖”下出之后,若alphago应对正确,还是可以保持局面优势。但那时的程序出现了计算上的错觉,于是应错了地方。这也是表明,人类实际上仍然可以分析和调试alphago,并非“不再拥有主权”。


这事就说到这里吧。最近访问了一位从事古典教育的弟兄,聊得很愉快,也多少了解他的服事和状态。看起来古典教育也有自己的生源,在多样教育生态中独特的生态位,以及各种真实的经验和苦乐。

关于数学,我询问了一下这个学校的做法。回答是,目前主要采用《几何原本》等训练思维和推理的材料,毕业生一般在升大学时不太会考虑理工科出路。

这当然是意料之中的事,也是我觉得经过深思熟虑之后基督教古典教育相对合理的抉择。我是真心支持我们中间有这样一条可行的路径得以保留。


回到关于“人工智能”的话题,也顺便展开几句(中间的一段讨论“古典教育”并非毫无关联)。

第二,(接第一节讨论alphago的第一点反思),在我看来,讨论人工智能与信仰的关系,或者讨论(广义的)教会如何应对人工智能时代的来临,都是非常重要的议题。在这些讨论中,对“智能”,“情感”,“意识”,“灵魂”等概念的定义和经验把握,以及“大脑工作机理”和“思维计算模型”等,可能是讨论“人工智能”,“机器情感”,“硅基意识发生”,“硅基生命与死亡”等跨学科宗教范畴的基础。

我自己做过几年的人工智能研究,博士论文研究信度网的学习、推理和分类。GPT采用的最大似然函数算法 (3.1),与我从前的研究领域多少有些接近,大体上能看懂原理。大体而言,chatGPT背后的通用预训练模型(GPT)就是一个概率学习和推理模型,或者说是一个信度网参数学习算法,加上海量的有监督文本数据学习,以及参数的实时贝叶斯更新。

在通用模型上,概率推理模型应该比黑箱的神经元网络模型更容易理解,而且可以给出推理的步骤和证据解释。但是概率模型在求解上的难度极大(节点和概率参数空间的指数复杂程度——NP难嘛,你懂的),所以最好是数据量大,但训练参数不要太多。一旦训练好了,答案的输出应该还是很快(也就是说,仅有多项式复杂度)。

好了,这也算是倒逼着我这个一直想做“吉祥物”的过气人工智能专家耐着性子阅读GPT的文献。从模型上看,概率模型从本质上无法等价于大脑的“复杂神经元网络”,从这个意义上讲,chatGPT至少在神学范畴内还不是一个对智能的迫切挑战。它只是基于海量(超过大脑存储和检索能力)数据,具备高度算力的概率推理模型,而且参数学习的效果非常好。


对于chatGPT的算法分析,似乎等价于神学上对某个世界观的“怯魅”。而前几年热门的“元宇宙教会”,似乎也随着Meta的大规模裁员而渐渐没有新闻。我感兴趣的话题在于,目前接触的基督教古典教育也许能够培养古典三艺或四艺精通的文科学者,但似乎无法培养出懂得计算数学、计算机科学、脑科学、哲学和神学兼顾的思考者。换句话说,在一个不了解具体学科的时代,哲学(或者神学)是否能够站在高处,对某个具体学科指手划脚,仿佛有一位老人在网络的边缘画了一个圈……啊春天的故事!春天的事故!!

即使是一位海外受训的神学博士,也可能在面对alphago或者chatGPT这样的冲击时,在事实辨识、见识和学识上显出薄弱——这是为了和“三艺”对应而生造的“三识”;如果要对应“四艺”,也许可以加上“常识”,但“七艺”就太多了,谁能帮助我问问chatGPT吧。我的IP不美国,暂时访问不了chatGPT。当然,在海外的理工科基督徒朋友们,比如家地,应该有更便利的视角和技术手段,可以更深刻地反思这个话题——家地加油!(不是家地沟油!)