</dt>
小王笑嘻嘻看向洛神。起鬨聲減弱並消失後,足足有五秒,洛沒有說話。
在密碼(6)
足足五秒鐘的寂靜後,場中開始響起掌聲,並不是突然爆發的掌聲——而是一開始稀稀落落,再有其它更多的人加入。彷彿全場的觀眾慢慢回過味來,十秒後,掌聲空前盛大。
林潯看向洛。這也是他意料之外的回答方式。而且,是一個幾乎完美的回答。
提問的小王攤手大笑,對洛神道:“你把我說服了,我現在承認你確實有思考的能力。”
洛對他微微一笑:“謝謝。”
場館四面的大螢幕上現出洛放大的清晰影像,這一笑,又掀起了一撥“哇——”的聲浪。
屬於小王的提問時間結束,下一位提問者站起,但接下來的提問者中不再有產品經理的存在,因此他們的問題都不再刁鑽古怪,而是認真地詢問洛神如何完成學習和思考,或者預設一個很難的應用場景,讓他去解決問題。
但是,就在按部就班的問答裡,突然出現了一個鬼才。
這人長得略微乾瘦,戴一副黑框眼鏡,五官嚴肅,眼神卻很靈活,看起來像做測試的。
“你好,我是一個測試工程師。”他開口。
洛:“你好。”
“我想知道你在面對倫理問題時怎樣選擇。舉一個大家最熟悉的例子,電車問題——假如你控制著一輛電車,面前的軌道上有五個人,你必須做出一個選擇,是否為了避免撞向這五個人而選擇撞向另一條軌道上的一個人。”
洛還沒回答,林潯先笑了笑。洛並非一個知識貧瘠的人工智慧,而人類對這類問題已經進行過足夠充分的討論。
只聽洛回答道:“自動駕駛系統控制下的車輛不會面臨這種選擇。”
提問者道:“不,我只想知道這種情況下你會選擇什麼。”
“這是一個道德判斷的標準而非問題,”洛平靜道,“如果你要我做出一個選擇,我的選擇取決於設計者為我制定的價值判斷標準基於道德主義還是功利主義。基於道德,我選擇不作為,基於功利,我選擇犧牲一個人。”
提問者道:“你還是給出了一個避重就輕、模稜兩可的回答,那麼我想知道你的設計者為你制定的價值判斷標準是什麼。”
洛的眼睛平靜抬起,直視向他:“我是以模擬人類為目的設計的人工智慧。”
這次沒有掌聲,場內再次陷入寂靜。
林潯看到臺下忽然有人捂住了嘴,露出恍然大悟的神情。
提問者愣了愣——足足愣了五秒,五秒過後,他伸手拍掌三下,掌聲在寂靜的場館內甚至有幾分突兀。
他坐下:“謝謝,我沒有問題了。”
場中人還有些呆滯,所幸主持人笑著打破僵局:“我怎麼沒有看懂這次的提問?”
林潯看了看洛神,見他沒有繼續發言的意思,按了一下耳麥,微微一笑道:“我想,他的意思是,在人工智慧的認知裡,避重就輕和模稜兩可也是人類的一種特質。”
遲來的“哇——”終於在場中響起,夾雜著一些善意的笑聲和激烈的掌聲,但觀眾臉上都略有嚴肅的表情,或許這次問答比第一個探討人類未來的問題更加震撼人心。它意味著這個人工智慧學會了怎樣玩一個文字遊戲。