|
中國網/中國發展門戶網訊 在數智時代,大數據與人工智能改變了經濟主體行為與經濟運行方式,也改變了經濟學研究范式。大數據為人類提供了認識與改造世界的新思維,即大數據思維,這是通過大數據發現復雜系統的運行規律、解決現實問題、預測未來變化的新范式;大數據思維的實現方式主要基于人工智能技術與方法。現代經濟學的主流研究范式是實證研究,即以數據為基礎推斷經濟變量之間的邏輯關系,特別是因果關系,從而揭示經濟運行規律;計量經濟學是其最主要的方法論。大數據的可獲得性進一步強化了這種研究范式。大數據與人工智能催生了數據驅動研究范式,計算社會科學也因此應運而生。那么,人工智能前沿技術特別是新近誕生的聊天機器人ChatGPT及其基礎模型技術的發展將如何改變經濟學乃至社會科學的研究范式?
ChatGPT及其大語言模型方法論
近幾年來,人工智能特別是利用人工智能技術生成內容的技術獲得迅猛發展,其中一個代表性技術進步是通用型聊天機器人ChatGPT的成功開發并投入使用。ChatGPT是一種基于互聯網文本數據進行訓練的文本生成深度學習模型,并通過強化學習及人機對話的方式持續提供反饋,能夠較好執行各種自然語言處理任務。ChatGPT是人工智能特別是自然語言處理領域的一個革命性技術突破,代表人工智能發展的一個新方向,預計對人類生產方式、生活方式及社會治理方式等各個領域將產生深遠影響。
ChatGPT的主要方法論是“規模至上”,其算法基礎是大語言模型。大模型是參數維數極大的模型,這些參數需要通過數據訓練或估計。大語言模型是指輸入數據主要為文本數據的大模型。大語言模型在深度學習發展階段就已出現。隨著人工神經網絡模型的隱藏層不斷增加,其參數數量呈現快速增長。文本數據本質上是高維或超高維數據,簡約模型無法刻畫異質性高維數據的特征,因此需要使用大語言模型。從計量經濟學與統計學視角看,大模型的最大優點是系統偏差比較小。同時,由于ChatGPT的訓練數據主要來自互聯網文本數據,樣本容量極其龐大,從而保證了大語言模型參數的估計精度。因此,大語言模型具有比較強的泛化能力,即樣本外預測能力。特別是大語言模型具有非線性規模效應,隨著規模的增加,其預測能力呈現非線性增加。
在經濟管理領域,人類很多決策均基于樣本外預測。如果使用某個領域的文本數據來訓練模型,模型維度可能不用太大。但是,對通用人工智能技術,隨著異質性文本數據的大量增加,小模型偏差較大,其樣本外預測能力變差。這時需要擴大模型規模,使用更多數據訓練模型,以提高泛化能力。隨著計算機科學特別是算力與算法的快速進步,這種不斷擴大規模的方法已成為通用人工智能技術的一個發展模式。
長期以來,計量經濟學與統計學面臨的一個困擾是“維數災難”:當模型參數維數相比數據容量不是很小時,雖然模型偏差比較小,但因為參數維數大,在有限數據容量條件下,對每個參數的估計不甚精準,導致模型過度擬合,其樣本外預測能力較差。“維數災難”不僅存在于計量經濟學與統計學,在社會科學和自然科學很多領域也存在。ChatGPT通過使用海量互聯網大數據,確保訓練數據容量遠大于模型參數維數,從而避免了“維數災難”。另外,大語言模型的結構設計是深度、多維、多層、多頭的注意力結構,可自適應高維空間的稀疏與不平衡數據結構,為避免“維數災難”提供了一種表示學習的解決方案。
作為學術研究的好助手,ChatGPT可大幅提高研究效率。在經濟學研究中,可借助ChatGPT搜索信息、收集數據、撰寫文獻綜述、編寫代碼、檢查程序、設計實驗方案、翻譯文本等。雖然目前ChatGPT的表現有不少缺點,其整體智能水平與人類相比尚有不小的差距;但可以預計,隨著人工智能技術的發展以及ChatGPT廣泛應用的經驗積累,ChatGPT的智能程度在很多方面將日益接近甚至超過人類。
ChatGPT及其大語言模型方法論可能會對經濟學乃至整個社會科學的研究范式產生深遠影響。例如,實驗經濟學研究表明,人類經濟行為并不滿足完全理性假設,更多表現為有限理性,甚至存在預期偏差。ChatGPT及其大語言模型能夠改進理性經濟人假設;因此,基于人工智能或由人工智能輔助的經濟決策可提供更有效的資源配置方案、改進政策評估精準性,以及提升經濟決策的科學性等。本文聚焦討論ChatGPT及其大語言模型方法論對經濟學研究范式的可能影響。
大模型與經濟學研究范式
計量經濟學小模型范式
過去40年,經濟學研究范式發生了一個深刻變革,即所謂的“實證革命”,也被稱為“可信性革命”。作為經濟學實證研究最主要的方法論,計量經濟學也日益成為社會科學很多領域的主流研究范式。2021年諾貝爾經濟學獎得主Joshua Angrist曾指出,應用計量經濟學所考慮的問題和其他社會科學或者流行病學所考慮的問題并無本質區別,任何希望從數據中得到有用推斷的人都可稱為應用計量經濟學家。
計量經濟學與統計學的一個基本建模原則是,使用盡量簡約的模型即小模型刻畫數據特征及變量之間的關系。在20世紀,統計學存在參數與非參數建模的方法論之爭。統計學家Ronald Fisher認為非參數模型因其參數維數高而估計不精確,主張使用參數維數較少的參數模型;另一位統計學家Karl Pearson則關注參數模型可能誤設而產生較大偏差,主張使用非參數模型。計量經濟學也有類似爭論。2003年諾貝爾經濟學獎得主Robert Engle主張從特定模型出發,通過檢驗遺漏變量等計量經濟學方法拓展模型,這是所謂的“從特殊到一般”的建模方法;而倫敦計量經濟學派代表人物David Hendry則主張從高維的一般模型出發,通過統計學假設檢驗與經濟理論約束條件等方法得到特定模型,這是所謂的“從一般到特殊”的建模方法。“從一般到特殊”的建模方法更適合大數據分析,更接近數據驅動研究范式。但是,兩種建模方法的最終目的都是獲得一個具有經濟可解釋性的簡約模型,參數不多且有經濟含義,同時擁有良好的樣本外預測能力。
為了獲得簡約模型,計量經濟學與統計學提出了很多經典降維方法,如主成分分析、因子模型、模型選擇、經濟理論約束等。在大數據時代,由于潛在解釋變量或預測變量很多,新的統計降維方法也不斷產生。例如,人工智能與統計學的交叉產生了一個新領域——統計學習,其中一個代表性降維方法是LASSO回歸。LASSO的基本思想是假設大量潛在解釋變量中只有少數變量有重要影響,在此稀疏性假設下,通過引入適合的懲罰項,以犧牲估計偏差為代價,換取估計方差的大幅度減少,從而顯著降低均方誤差,達到精準選擇重要變量和改進樣本外預測的目的。
計量經濟學應發展大模型范式
長期以來,計量經濟學與統計學使用的數據均是“小”數據,大量數據信息沒有被利用。計量經濟學與統計學的研究范式以模型為重心,以降維為導向,這主要歸因于經濟學研究的可解釋性要求、數據容量有限及計算資源約束。隨著數智時代的到來,人工智能特別是機器學習,如LASSO、決策樹、隨機森林、支持向量機、人工神經網絡模型及深度學習等方法,被廣泛應用于經濟學及社會科學其他領域的研究。實證研究表明,在經濟金融預測方面,機器學習顯著優于傳統計量經濟學模型,但尚未達到令人滿意的程度,尤其是與其他領域(如人臉識別)相比,預測精準性仍有待提升。目前機器學習在這方面表現較差的主要原因是經濟金融系統是一個超高維動態復雜系統,影響因素繁多并互相關聯,其相互關系呈現非線性特征并有時變性;此外,經濟金融系統還受經濟主體心理因素(如預期、情緒等)的影響。如此復雜的經濟系統是不可能用小模型來刻畫其本質規律的。
為了顯著改進經濟金融預測與提升模型的解釋力,可在計量經濟學建模中考慮大模型范式。這里所說的大模型是指參數維度較大的計量經濟學模型,不一定要使用互聯網海量文本數據或深度學習方法,模型參數維度也可遠小于ChatGPT那樣的數量級。大模型可容納高維潛在的影響因素,允許變量之間存在非線性關系,允許模型參數具有時變性,因此能夠顯著減少模型偏差。計量經濟學與統計學的模型組合方法就是一種大模型范式,可得到比較穩健、精準的樣本外預測。經濟學與計量經濟學已有一些大模型,如投入產出模型、可計算一般均衡模型、宏觀經濟學聯立方程模型,以及1980年諾貝爾經濟學獎得主Lawrence Klein提出的世界連接模型等,但這些模型大多受到數據容量等的限制。
大模型方法能夠成功的關鍵是適用于計量經濟學建模的大規模數據的可獲得性。目前,計量經濟學模型所使用的數據本質上大多是“小”數據,不足以支持大模型的估計、推斷與預測。如何有效利用現有各種結構化和非結構化數據,如何利用人工智能技術整合各種類型、各種抽樣頻率、各種來源的數據,構建大規模的計量經濟學數據庫,是大模型方法的一個前提條件。此外,大算力等信息技術基礎設施建設對大模型在計量經濟學中的應用也不可或缺。在國家層面,即將成立的國家數據局將負責協調推進數據基礎制度建設,統籌數據資源整合共享和開發利用,這將為大模型范式的探索與推廣提供重要支持。
人工智能技術的局限性
人工智能特別是ChatGPT及其大語言模型正在推動經濟學研究范式的深刻變革,但是人工智能技術也存在局限性。
以ChatGPT為代表的前沿人工智能目前仍沒有人類的意識或理解能力,只有預測能力。ChatGPT不久前在接受美國《時代》周刊采訪時表示,“說我有知覺或意識是不準確的。作為一個大型語言模型,我只是一個機器學習模型,沒有和人類一樣的意識。我沒有思想、感覺或經歷,沒有能力做決定或獨立判斷。”ChatGPT無法理解生成單詞的上下文語境或含義,只能根據給定的訓練數據,根據某些單詞或單詞序列一起出現的概率生成文本。因此,其不大可能擁有與人類一樣的批判性思維和想象力,無法從現有數據推斷出重大創新性成果。
基于大數據的人工智能因果推斷本質上是一種統計關系推斷,并不一定是真正的因果關系。所謂因果關系,是指其他因素不變的條件下,某一變量的變化必然引起另一變量的變化。識別因果關系是經濟學乃至社會科學研究的最根本問題。經濟學因果推斷的最有效方法是實驗方法,如隨機控制實驗。在因果推斷方面,計量經濟學與統計學取得了長足的方法論進展。2021年,經濟學家Joshua Angrist、David Card和Guido Imbens由于他們在因果推斷方法論方面的貢獻而獲得諾貝爾經濟學獎。但是,由于現實大數據基本上是觀測數據而非實驗數據,基于人工智能的因果推斷本質上是一種相關關系或預測關系,是兩個變量之間在計算機中的統計關聯。在某種意義上,基于大數據的人工智能因果關系類似于英國哲學家休謨所闡述的因果關系,即兩個現象或變量在人腦中形成的慣常聯系。因此,人工智能因果關系和經濟學因果關系并不完全一致。要識別經濟學因果關系,不能僅依靠人工智能因果推斷技術,還必須有經濟理論的指導或者引入實驗方法。這一點,對可解釋性較弱的大模型尤為重要。
人工智能沒有改變經濟學實證研究的本質,即從樣本推斷總體性質。雖然以ChatGPT為代表的人工智能使用了幾乎整個互聯網文本數據,但互聯網大數據并非全樣本。人類經濟社會發展是一個長期歷史過程,現有互聯網大數據只是這個歷史過程的一個樣本,即便其容量特別龐大。此外,經濟發展在不同歷史階段具有不同的特征,經濟運行規律因此會呈現出時變性——有時是緩慢變化,有時是突變,這使得人工智能對經濟金融未來變化趨勢的預測更具挑戰性。
(4)模型、算法與數據的可靠性有待驗證。人工智能正在推動經濟學乃至整個社會科學研究從模型驅動范式轉變到數據驅動范式,從數據直接獲得穩健的結論,克服了模型驅動范式得到的結論可能會因模型改變而變化的缺陷。但是,互聯網大數據存在各種虛假信息,以ChatGPT為代表的人工智能仍無法確認其表述內容的真實性。此外,雖然容量非常龐大,互聯網大數據也存在“樣本選擇偏差”問題,“數字鴻溝”就是一個重要例子。這些問題不可避免地會影響基于互聯網大數據的ChatGPT乃至人工智能所獲得的結論的可靠性與科學性。
展望
我們正處于大數據、大科技、大模型的時代,加上中國超大人口規模和超大經濟規模給人工智能技術帶來的廣闊應用場景,這些將為經濟學研究提供大量豐富的素材。應當充分利用所有數據資源,積極探索大模型研究范式,以更好揭示中國復雜經濟系統的運行與發展規律。
需要指出,強調大模型并不意味小模型不重要,大小模型分別適用于不同情境;強調大數據并不意味“小”數據不重要,“小”數據的信息密度通常更高;強調文本數據等非結構化大數據并不意味結構化數據不重要。歷史上,熱力學與統計物理學的發展經驗或許可以提供一些有用啟示:物理學黑體輻射研究曾經出現兩個理論——在短波范圍擬合較好的“維恩近似”,以及在長波范圍擬合較好的“瑞利-金斯定律”;后來,普朗克將兩者綜合起來,提出了覆蓋全波段范圍的“黑體輻射定律”。
在經濟學研究中,大、小模型各有優缺點,是否可以找到更好的科學方法把這兩種模型結合在一起,從而提高模型的可解釋性和預測力?關于小模型的研究已有很長的歷史,經濟學家對小模型在經濟學實證研究中的優點與局限性已有比較深刻的了解。但是,關于大模型的研究及大模型在經濟學實證研究中的應用還很少,因此需要大力探索發展大模型方法,并與小模型方法進行比較。
(作者:洪永淼,中國科學院數學與系統科學研究院、中國科學院大學 經濟與管理學院、中國科學院大學 數字經濟監測預測預警與政策仿真教育部哲學社會科學實驗室(培育);汪壽陽,中國科學院數學與系統科學研究院、中國科學院預測科學研究中心、中國科學院大學 經濟與管理學院;《中國科學院院刊》供稿)