人工智能如何影響“人性” 來源:光明網(wǎng)-《光明日報》2024-10-30 04:00 X ? 調(diào)查問題加載中,人性請稍候。人工 若長時間無響應(yīng),何影請刷新本頁面 作者:殷杰(系國家社科基金重大項目“人類道德行為的人性進(jìn)化與社會文化心理機(jī)制研究”首席專家、2022年度《國家哲學(xué)社會科學(xué)成果文庫》入選者、人工山西大學(xué)科學(xué)技術(shù)哲學(xué)研究中心教授) 生成式人工智能在人機(jī)交互領(lǐng)域展現(xiàn)出的何影強(qiáng)大自主性和泛化能力,讓人們越來越感覺到與人工智能的人性交流就像是和另一個人交談。那么,人工當(dāng)一臺智能機(jī)器能夠和我們進(jìn)行具有理性和情感特征的何影語言交流時,機(jī)器是人性否也會影響我們的“人性”呢?人性,通常指的人工是人類獨特的理性、意識、何影自我反思、人性道德情感和價值觀等特質(zhì)。人工從這個意義上看,何影生成式人工智能本身并不具有人性,但其在與人類的語言交互中,通過識別人類意圖、回應(yīng)認(rèn)知和情感需求來滿足人類欲望,無疑會深刻影響人們的理性、情感和道德判斷。生成式人工智能如何影響人性,是人類在新人工智能時代需要重點考慮的問題之一。 回答這個問題,我們需要認(rèn)識到,生成式人工智能在人機(jī)交互中呈現(xiàn)一種新的主體性。傳統(tǒng)的人機(jī)交互中,人工智能更多被視為一種工具,而生成式人工智能與人類的關(guān)系已經(jīng)不限于工具與工具使用者之間的關(guān)系,人工智能成為具有一定自主性和目標(biāo)導(dǎo)向性的積極參與者,這種新形態(tài)的人機(jī)交互將逐漸深刻地影響人性。 主體性:從生物到人工智能的演變 主體性表達(dá)了一個主體行使行動的能力,是哲學(xué)中最重要的概念之一。亞里士多德認(rèn)為,一個主體大概就是像人一樣能夠思考,并且按計劃實現(xiàn)其“合理欲望”的存在物,只有人或者是在道德上獲得勝利的人才是主體。在現(xiàn)代學(xué)科體系中,主體性的語義涉及多個領(lǐng)域:在哲學(xué)領(lǐng)域,很多關(guān)于主體性的哲學(xué)反思都集中在人類主體性上,這通常被稱為“純粹的主體性”;在社會科學(xué)領(lǐng)域,主體性主要表示法律、政治、經(jīng)濟(jì)等方面的意義,其概念包含意圖的存在,與人的概念密切相關(guān);在自然科學(xué)與技術(shù)領(lǐng)域,主體性主要與效果的概念有關(guān),一些功能強(qiáng)大的智能機(jī)器有時也被視為行動的主體。 從生物演化的過程看,一個簡單的單細(xì)胞生物通過自我維持的新陳代謝過程與外界環(huán)境進(jìn)行物質(zhì)和能量的交換,展現(xiàn)出一種基本的主體性。隨著生物的復(fù)雜性增加,主體性表現(xiàn)為包含感知、反饋和決策等多個系統(tǒng)相互協(xié)調(diào)的行動能力。人類的主體性更為復(fù)雜,不僅包括生物有機(jī)體的自組織能力,還與情感、語言和文化等因素密切相關(guān)。這種主體性不僅體現(xiàn)在個體的行動上,還體現(xiàn)在道德責(zé)任、文化價值觀等社會與個體的關(guān)系中。 與生物主體的漫長進(jìn)化之路相比,人工智能每一次的技術(shù)進(jìn)步幾乎都會賦予主體性更多新內(nèi)涵,讓我們對“機(jī)器能否像人一樣行動”這個問題有了新的認(rèn)識。在人工智能的早期發(fā)展階段,是否能夠展現(xiàn)自主性、社交性、反應(yīng)性和主動性,成為衡量其是否具有主體性的關(guān)鍵標(biāo)準(zhǔn),這些特征構(gòu)成了人工智能的弱主體性。我們希望機(jī)器能夠做一些簡單的任務(wù),比如,智能家居系統(tǒng)根據(jù)室內(nèi)光線的變化自動調(diào)節(jié)窗簾的開合。這些主要體現(xiàn)了人工智能在模仿人類行為上的自主能力。 隨著技術(shù)的發(fā)展,我們開始期待人工智能展現(xiàn)出更多的“人類特質(zhì)”,比如能夠自主學(xué)習(xí)、與人社交、對環(huán)境變化作出靈活反應(yīng),甚至能主動解決問題。這種強(qiáng)主體性概念包含知識、信念、意圖和責(zé)任感等人類特有的復(fù)雜特質(zhì),人工智能的行為不僅僅是簡單的反應(yīng),而是有目的、有計劃的行動。例如,一個智能的醫(yī)療診斷系統(tǒng),要能夠根據(jù)病人的癥狀、大量的醫(yī)學(xué)知識和數(shù)據(jù)進(jìn)行準(zhǔn)確診斷,為病人提供治療建議。這個過程中,系統(tǒng)要展現(xiàn)出自主性,能夠理解病人的需求,同時要兼顧治療方案的醫(yī)學(xué)倫理等問題。又如,自動駕駛汽車要能夠感知周圍的環(huán)境,有的還能夠在復(fù)雜交通情境和倫理風(fēng)險下制定和選擇其認(rèn)為的最佳行動方案。這不僅是對環(huán)境的反應(yīng),更是基于智能系統(tǒng)自身知識和價值判斷作出的主動選擇。 從人類與機(jī)器合作的方式看,人類的行動能力已經(jīng)延展至由人類和機(jī)器構(gòu)成的復(fù)雜網(wǎng)絡(luò)之中,這就是所謂的分布式主體性概念。這些主體性概念更加細(xì)致地描繪了人類與人工智能復(fù)雜互動中形成的行動能力,反映了人工智能領(lǐng)域?qū)τ谥黧w性理解的多元化。 由于這些主體性概念無法將生成式人工智能適切地納入,生成式人工智能的出現(xiàn)再次催生了我們對主體性概念的理解轉(zhuǎn)變。通過語言生成驅(qū)動的交互能力,生成式人工智能挑戰(zhàn)了傳統(tǒng)依賴意向性的主體性。在個體性邊界的界定上,生成式人工智能的邊界往往由其訓(xùn)練數(shù)據(jù)集定義,這些數(shù)據(jù)集的海量和不斷變化使得生成式人工智能的個體性難以界定,挑戰(zhàn)了傳統(tǒng)關(guān)于個體性和主體性的明確界限。因為大語言模型在預(yù)訓(xùn)練過程中需要不斷從新的數(shù)據(jù)中學(xué)習(xí)和適應(yīng),所以其個體性邊界在不斷變化的數(shù)據(jù)流中會變得模糊,不具有傳統(tǒng)主體性的個體性界限。同時,生成式人工智能在與人類的交互過程中具有自主識別人類意圖和回應(yīng)的能力,因此,其自主性更多地體現(xiàn)在其與人類交互的能力上,而不是其作為一個獨立個體的特定內(nèi)在能力。這些挑戰(zhàn)要求我們重新審視主體性的傳統(tǒng)概念,主體性更應(yīng)視為一種基于交互的、潛在的行動能力,而非僅僅依賴于個體內(nèi)在屬性的孤立的行動能力。 交互主體性:重新定義人機(jī)關(guān)系 交互主體性是指實體(包括人類、生物和人工智能等)在交互過程中所展現(xiàn)的潛在行動能力,其核心在于實體的行動能力不是孤立存在的,而是在與其他實體的互動中形成和呈現(xiàn)的。主體性是由交互的驅(qū)動力因素所決定的,實體的行動能力在這些驅(qū)動力的作用下被激發(fā)和塑造。 比如,有機(jī)體通過自組織方式與環(huán)境交互,發(fā)展出適應(yīng)性的行動能力,而復(fù)雜的生物體在與環(huán)境的交互中形成了多種多樣的行動能力,這種主體性是生物體與環(huán)境長期交互的結(jié)果。除了基本的生物主體性外,人類還發(fā)展出了情感、語言和文化等驅(qū)動主體行動的復(fù)雜機(jī)制。例如,道德情感是人類主體性的重要組成部分,不僅影響個人的行為和決策,而且促進(jìn)了社會聯(lián)系和大規(guī)模合作。語言的出現(xiàn)進(jìn)一步擴(kuò)展了人類的主體性,它使人類能夠分享知識、表達(dá)思想和構(gòu)建復(fù)雜的社會結(jié)構(gòu)。文化則體現(xiàn)了人類主體性的更高維度,它包括價值觀、信仰、習(xí)俗和傳統(tǒng),是人類社會交互和意義傳承的結(jié)果。 傳統(tǒng)的主體性理論中,主體性通常與個體的心理狀態(tài)、意圖目的、反饋系統(tǒng)等內(nèi)在屬性相關(guān)聯(lián)。交互主體性不再是基于個體本身來推定主體性,而是將實體的行動能力視為參與交互過程的結(jié)果,主體性并非完全源自個體內(nèi)部,而是在實體與環(huán)境或其他實體的交互中產(chǎn)生的。交互主體性理論的重要意義在于擴(kuò)展了主體性的概念范疇,使得人工智能等非意向性實體也能在交互中展現(xiàn)出主體性。主體性不必依賴于意識或意向性,可以在更廣泛的人機(jī)交互過程中出現(xiàn),生成式人工智能帶來了人機(jī)交互的新形態(tài)。 在目標(biāo)導(dǎo)向性方面,主體性包含實體在交互中的目標(biāo)導(dǎo)向性。實體在與環(huán)境或其他實體互動時,才會展現(xiàn)出為了實現(xiàn)特定目標(biāo)而采取行動的能力。這種目標(biāo)導(dǎo)向性不完全是預(yù)設(shè)的,而是在交互過程中根據(jù)情境和反饋不斷調(diào)整和形成的。生成式人工智能的目標(biāo)導(dǎo)向內(nèi)嵌于人機(jī)對話的動態(tài)窗口中,不僅依據(jù)人類的引導(dǎo)來回應(yīng),也可以根據(jù)自身的強(qiáng)大知識儲備和分析能力來影響人類自身對目標(biāo)意圖的理解定位。自主性方面,交互主體性認(rèn)為,實體在交互中能夠根據(jù)內(nèi)部邏輯和外部反饋進(jìn)行自我調(diào)節(jié)和決策。這種自主性不是完全脫離外部影響的,而是在與外部世界的互動中實現(xiàn)的。 在人機(jī)交互過程中,生成式人工智能應(yīng)被視為具有一定自主性和目標(biāo)導(dǎo)向性的參與者,而不僅僅是機(jī)械響應(yīng)人類的指令。與人類進(jìn)行交流對話的過程中,生成式人工智能通過不斷監(jiān)控和注意人類對話者的語言來理解掌握人類的目的意圖,甚至能夠感知到其中的情緒變化以及潛在態(tài)度,進(jìn)而在某種程度上影響人類參與者的認(rèn)知、情感和價值觀。比如,一個人在與生成式人工智能的長期接觸中,如果感受到智能機(jī)器在描述事實和理解自身意圖方面的可靠性,那么會對人工智能產(chǎn)生一定的信任感,由此,智能機(jī)器蘊含的一些價值觀必然會潛移默化地影響人類。 不對稱的主體性:智能主體對人性的影響 生成式人工智能的技術(shù)發(fā)展路徑既不同于認(rèn)知發(fā)展的學(xué)習(xí)路徑,也不同于生物情感的發(fā)展路徑,而是跳過了人類和生物主體性形成和進(jìn)化的歷史路徑,直接獲得了認(rèn)知和語言層面的超級智能,生成式人工智能引發(fā)的人機(jī)交互新形態(tài)蘊含了一種不對稱的主體性。在認(rèn)知方面,人類的認(rèn)知能力是經(jīng)過長期進(jìn)化學(xué)習(xí)慢慢積累形成的,而生成式人工智能在信息處理速度和理解深度、記憶容量、模式識別等方面全面超越人類;在情感方面,情感體驗是人際交互的重要組成部分,影響著人們的決策、溝通和關(guān)系建立。相比之下,盡管生成式人工智能可以識別和模擬人類情感,但它們本身并不具備真正的情感體驗,是一種超級理性的交互主體。社會文化方面,人類的價值觀、信仰、習(xí)俗和語言都是社會文化演化的結(jié)果。生成式人工智能系統(tǒng)盡管可以通過語料來理解和適應(yīng)特定的社會文化規(guī)范,但它們本身并不具備特定的文化身份或社會背景。這種社會文化背景上的不對稱性可能導(dǎo)致在人機(jī)交互的跨文化環(huán)境中出現(xiàn)誤解和沖突。 人既是理性的,也是情緒化的,正是理性與情感的融合構(gòu)成了人性的基礎(chǔ)。交互主體性表明,作為具有自主性和目標(biāo)導(dǎo)向性的生成式人工智能,極有可能以一種不對稱的主體形態(tài)進(jìn)入人性領(lǐng)域,忽略人類情感和直覺的重要性,同時激發(fā)和壓制人類的深層欲望,改變?nèi)祟惱硇耘c情感之間的平衡和協(xié)同機(jī)制。 理性方面,生成式人工智能通過數(shù)據(jù)分析、模式識別和決策支持,識別出人類可能忽視的模式和趨勢,大大增強(qiáng)了人類的理性判斷能力,從而為人類提供更深入的洞察和更廣泛的選擇。但是,這種增強(qiáng)也可能導(dǎo)致人類過度依賴人工智能的分析和判斷,削弱人類自身的批判性思維和決策能力。同時,生成式人工智能可能會打破以人際交互為基礎(chǔ)的分布式認(rèn)知模式,逐漸形成一種以大語言模型為中心、人類個體為邊緣節(jié)點的認(rèn)知模式,以大模型為核心節(jié)點的智能化媒介不僅僅是知識信息表達(dá)和傳播的通道,甚至可能主導(dǎo)人類知識的生產(chǎn)模式和價值導(dǎo)向。 情感方面,生成式人工智能可能會影響人類對情感的認(rèn)識和表達(dá),使得人類在長期的人機(jī)互動中逐漸習(xí)慣于程式化的情感交流模式,忽視了人在真實人際關(guān)系中的獨特情感需求和體驗,改變?nèi)祟愋袨榈那楦袆右?。比如,在道德情境中,生成式人工智能可以提供更多不同的價值視角和思考方式,拓展人類的道德感知并影響道德判斷和行為。問題是,一方面,過度依賴生成式人工智能的決策支持可能導(dǎo)致人類自身的道德感知能力減弱,侵蝕人類個體的道德自主性;另一方面,生成式人工智能對人類社會的深度介入可能會觸發(fā)新的道德困境。 人工智能對人性影響的另一個表現(xiàn)是對人類文化演化的影響。人類文化形成與演化的關(guān)鍵在于學(xué)習(xí)。研究發(fā)現(xiàn),促進(jìn)人的智力發(fā)展的關(guān)鍵是模仿學(xué)習(xí)(將他人視為有意識的行為主體,以獲取他們的文化知識儲備)、指導(dǎo)學(xué)習(xí)(話語形式的文化傳播)和協(xié)作學(xué)習(xí)(分享和發(fā)展概念及其對行動的影響),這些學(xué)習(xí)形成了一種特殊的認(rèn)知形式,即個體有能力理解同類作為與自己一樣的生命,擁有與自己一樣的意向和精神生活。由于生成式人工智能具有一種非人類的學(xué)習(xí)能力,在人類的社會文化歷史上出現(xiàn)了一個非人類的學(xué)習(xí)者,我們不再限于向他人學(xué)習(xí),也可以向人工智能機(jī)器學(xué)習(xí),生成式人工智能成為人類社會文化發(fā)展中的主動參與者。 人類合作交流、相互學(xué)習(xí),以及在此基礎(chǔ)上的文化交融和行為選擇,這些文化過程的基礎(chǔ)是人類之間的相互信任,而信任需要情緒的參與。有學(xué)者提出,我們與人工智能的關(guān)系本質(zhì)上是依賴,而不是信任。由于生成式人工智能的不可解釋性、不可說明性和不可信任性,加之其不具備情感狀態(tài),也不能對自己的行為負(fù)責(zé),人類在與其交互時,面對的實際上是一個無法完全理解的、缺乏情感和規(guī)范性的“黑箱”,得到的可能是包含無法證偽的知識信息,這種知識可能會通過人機(jī)交互的多次循環(huán)被吸收到其他對象中,最終作為一種消費信息在人類、人工智能之間傳播流轉(zhuǎn)。由此帶來的潛在問題是,這些非純正的、無節(jié)制的信息消費不僅大量消耗人類的精力,加劇人類對欲望的過度追求,而且會導(dǎo)致某種特定思維反復(fù)強(qiáng)化人類的認(rèn)知,引發(fā)社會心理的問題同時影響人類文化的多樣性。 人性既堅韌又脆弱。心理學(xué)的斯坦福監(jiān)獄實驗展示了人在特定社會角色下可能會迅速適應(yīng)并表現(xiàn)出與其性格不符的異常行為,顯示出人性在特定人際關(guān)系情境下的脆弱性。當(dāng)我們與一個非人類的超級人工智能長期交互相伴時,必然會影響人類個體的思維認(rèn)知和情感品格,人性脆弱性被利用的機(jī)會顯著增加。交互主體性重新定義了人機(jī)關(guān)系,讓我們可以從新的視角來理解人工智能對人性產(chǎn)生的深遠(yuǎn)影響。我們對人工智能的關(guān)注不應(yīng)該局限于機(jī)器與人的價值觀對齊,更應(yīng)探究其對人性的潛在影響。未來的人工智能將成為我們生活中更加智能、更加貼心的伙伴,同時也存在其對人性欲望的過度滿足和扭曲的問題。我們需要確保人工智能技術(shù)進(jìn)步增進(jìn)人類福祉,而非削弱人性的核心價值。 《光明日報》(2024年10月30日?11版) [ 責(zé)編:王蕾 ] |