<address id="tpljj"></address>

<address id="tpljj"><nobr id="tpljj"><meter id="tpljj"></meter></nobr></address>
<address id="tpljj"></address><form id="tpljj"></form><address id="tpljj"><nobr id="tpljj"><th id="tpljj"></th></nobr></address>

        <address id="tpljj"></address>

            <address id="tpljj"></address>

                  孟子研究院 今天是
                  范瑞平:儒家價值觀下的人工智能發展
                  • 來源:
                  • 作者:
                  • 2025年08月18日
                  • 審核:
                  • 瀏覽(923)
                  • 收藏
                  瀏覽字號:

                  摘要:強調人類智能與人工智能進行合作固然沒錯,但若不闡明合作的目的及主從關系,就會失焦失當。從儒家價值觀出發,不應該把人類個體與智能機器之間的合作等同于人與人之間的合作,因為人與人之間應該相互尊重,而人類與機器并不平等,也不應該追求此類平等,所以談不上相互尊重。因此,對于人工智能的發展,做出三項基于儒家價值觀的回應和論證:應該將人類與機器嚴格區分開來;不應該讓智能機器影響甚至改變人類五倫,以避免人際關系變成人機關系;在利用具有人工智能屬性的照護機器人、醫療機器人、性愛機器人等新型機器人時,需要創建不同于人際禮儀的新的人機禮儀。此外,超級人工智能的出現可能對人類價值構成嚴重威脅,基于儒家價值觀,應該明確反對制造超級人工智能??傊挥袕囊环N具體文化價值觀出發來深入探究人工智能的發展,才能為其他文化提供有效參考,并有利于不同文化之間的科技合作,從而造福于人類。

                  關鍵詞:人工智能  人類智能  超級智能  儒家價值觀  五倫  禮儀

                  引言

                  從儒家價值觀出發來探討人類應該如何發展人工智能,以及如何塑造人工智能與人類智能之間的關系,具有重大而獨特的意義。重大,是因為基于儒家價值觀,人類之所以發展人工智能,是要提供服務于人類的機器,而不是為了創造高于人類的存在者,甚至讓它們來取代人類;獨特,是因為雖然探討人工智能發展和應用的人文社科文獻已經大量涌現,但從一種具有悠久影響的文化價值觀(例如儒家)出發來進行深入分析的嘗試,仍屬鳳毛麟角。本文從儒家價值觀出發,提供一些批判性反思。

                  人們一般認為,人類智能與人工智能之間應該保持相互補充和合作的關系。人類智能具有深邃的情感、獨特的創造力、敏銳的道德判斷力,而人工智能則擅長處理大數據、進行復雜計算和繁重的重復性工作。通過人類智能與人工智能的結合,可以實現更高效、更精準的決策和更快速的改變。樂觀的看法是,人類可以引導和監督人工智能的發展,確保其符合人類的倫理和社會價值。因此,人們似乎都同意兩者的合作,重要的問題是如何在人類智能與人工智能之間建立一種互相支持的關系,并利用兩者的優勢以共同推動科技創新和社會進步,為人類提供更好的生活。

                  對于如何建立這種關系,人們一般擔心四個方面的問題。一是隱私保護和數據安全:人工智能系統需要大量數據來進行訓練和學習,但數據的使用涉及人的隱私和安全,如何平衡數據共享與人的隱私保護,乃是一個道德挑戰。二是與此相關的其他道德問題:人工智能的決策可能受到數據偏見、算法不透明性等因素的影響,如何確保人工智能系統的決策符合這些方面的人類倫理標準,乃是另一個重要挑戰。三是人工智能機器能夠取代人類工作、造成大量失業,引發一系列嚴重的社會問題。最后是出現超級人工智能的可能:它們具有統治人類甚至消滅人類的危險。

                  這些問題當然都很重要。但從儒家價值觀出發,我們認為首先需要確立發展人工智能的目的以及堅守人類智能與人工智能之間的主從關系,然后才能對這些問題進行深入探討。本文強調,肯定人類智能與人工智能之間的合作固然沒錯,但我們需要闡明:開發人工智能的目的是以人為本,人與機器之間的關系是主從關系,以免造成失焦失當的后果。也就是說,基于儒家價值觀,人類智能與人工智能之間的合作不應該等同于人與人之間的合作,因為人類應該相互尊重,而人工智能與人類智能本不平等,也不應該追求此類平等,所以人機合作談不上相互尊重。相反,我們面對的是一個特殊的問題:人類應該如何開發和對待有智能的機器?

                  下述第一節首先概述人工智能與人類智能之間的不同,然后指出,如何評價這些不同以及它們各自的高低優劣,將取決于具體的文化價值觀,但世界上存在著不同的文化價值觀。第二節概述儒家文化價值觀的核心價值,以此對于人工智能發展做出三項回應和論證:應該將人類個體與智能機器嚴格區分開來;不應該讓智能機器影響甚至改變五倫實質,使得人際關系變成人機關系;在應用具有人工智能屬性的照護機器人、醫療機器人等新型機器人時,需要創建和體現不同于人際禮儀的新的儒家人機禮儀,從而有助于我們決定如何設計、開發、利用和管理這些智能機器人。第三節論證超級人工智能的出現可能對人類價值構成嚴重威脅、將人類置于萬劫不復的境地,面對這種極度危險的不確定性,儒家價值觀應該堅定反對制造超級人工智能。最后,結語提示所謂普世價值是有限的、單薄的、不足以提供資源來對人工智能的發展做出深入的思考和充分的論證。因此,只有從一種具體的文化價值觀(例如儒家文化價值觀)出發來進行細致探究,才有可能為其他文化提供參考,并有利于不同文化之間的科技合作,從而造福于人類。

                  一、人工智能與人類智能的不同

                  人類智能涵蓋多方面的能力和特性。第一,人類具有復雜的認知能力,包括學習、記憶、理解、推理和創造等能力。第二,人類具有意識和情感,能夠感知、表達和理解感情和情緒,這種能力對于社交互動和情感連接至關重要。第三,人類具有創造力,能夠探索新思想、創造藝術作品、提出解決問題的方案等,展現出強大的想象和創新能力。第四,人類智能具有靈活性和適應性,使得人類能夠適應各種環境和情境,在面對新的挑戰時能夠迅速做出調整和進行學習。最后,人類智能使人具備人際交往能力,在社交互動中展現出復雜的情感和行為,能夠體察他人情緒、同他人建立深厚的關系、進行復雜的交流和合作。

                  相比之下,人工智能有其獨特之處。就目前的人工智能水平而言,下述特點十分明顯。第一,人工智能具有強大的計算能力,可以迅速處理大量數據和進行復雜的計算,且遠遠超過人類的計算速度和存儲容量。第二,人工智能系統通常是為特定任務而設計和訓練的,可以在特定領域展現出超強的專業知識和技能,而人類則具有更廣泛的認知能力和更強的適應性。第三,人工智能系統可以持續工作,不需要休息,并保持高效率,而人類則在長時間工作中易出現疲勞和變化。第四,人工智能缺乏意識、情感和創造性,無法像人類那樣理解情感、展現同理心和創造力,也無法像人類那樣擁有主觀體驗和自我意識。第五,人工智能系統缺乏人類的社交能力和情感連接,不能像人類那樣進行復雜的社交互動。第六,雖然人工智能系統可以在特定任務上表現出色,但在面對新情境和新問題時,往往缺乏人類所具備的靈活性和適應性。

                  這就是說,迄今為止的人工智能系統盡管在某些方面超過人類智能,但在其他方面仍然缺乏人類智能所具有的廣泛性、復雜性和多維性,無法模擬人類行動。特別是,人工智能系統不存在人類所具有的意識和情感,無法像人類那樣擁有主觀體驗和自我感知。這一區別,從儒家文化價值觀來看,具有極其重要的意義。

                  當然,這些不同都是事實上的不同,反映了人們對于人工智能與人類智能的一些事實判斷。如何評價這些不同、它們是重要的還是不重要的,則是另外的問題。顯然,做出這種評價取決于人們的價值判斷,而做出價值判斷又依賴于人們的價值觀。價值判斷不是事實判斷,而是對事實的評估或賦值。價值判斷反映人們對于事物的重視程度或優劣評估,體現人們對于什么是重要的、有意義的或有利的所持的信念。價值判斷可以是道德的、美學的、經濟的或其他方面的。從哲學觀點看,雖然價值也可能是客觀存在的實體,但它們不同于事實實體,體現不同的認知。事實認知告訴我們世界是什么樣的,價值認知告訴我們世界應該是什么樣的。相較而言,一般認為,價值判斷具有更大的主觀性,依賴于個人或群體的信仰、態度和文化承諾。但關鍵的一點是,價值觀無比重要,因為價值判斷影響人們對于事實的看法并決定他們的選擇和行為,從而重塑事實世界。

                  世界上存在著不同的文化,不同的文化確立了不同的價值觀,這些價值觀塑造了具體文化中的人們對待生活以及技術的信念和態度。例如,一些文化可能更尊重傳統、家庭和社群,而另一些文化則可能更重視個人獨立以及生物平等。價值觀決定一個社會中被認可和推崇的行為規范,也影響著社會的組織結構和制度,還塑造了人們的溝通習慣和交流方式。例如,一些文化更注重直接對話和坦率表達,而另一些文化則更傾向于含蓄溝通和避免沖突。因此,各類文化的價值觀對于其社會行為、技術發展、公共決策產生不同而又深遠的影響。它們對于人工智能與人類智能的評價、對于人工智能的發展策略、對于人機關系的塑造和問題應對,都會有所不同。

                  究其根本,人類在兩千多年前就已做出了不同的文明突破,影響至今。眾所周知,雅斯貝爾斯(Karl Jaspers)提出了得到廣泛接受的“軸心時代”(Axial Age)理論,意指在公元前8世紀到3世紀之間,世界幾大文明同時做出了偉大的倫理創新。例如,印度文化的倫理突破體現在佛教和耆那教的興起,強調超越世俗欲望、輪回轉世、解脫苦難等思想。伊朗文化的倫理突破表現在祆教(波斯教)的興起,強調善惡對立、正邪斗爭等觀念。希臘文化的倫理突破在于哲學的興起,強調理性思維、辯證法和道德追求。以色列文化的倫理突破體現在猶太教的興起,強調唯一上帝、嚴格戒律和約束人性的道德規范。就中國文化而言,雅斯貝爾斯認為孔子代表了中國文化中的倫理革新。儒家倫理突破主要體現在儒家思想中對人倫關系、仁愛美德、中庸之道、禮樂制度等方面的強調,提倡和諧共處、仁愛親和的倫理觀念。

                  這些道德轉向具有相同之處,例如它們都提倡內在的精神成長和道德修養。但雅斯貝爾斯可能過分強調了這些文化突破的同質性,他的觀點甚至帶有現代西方的理性主義、個人主義和普遍主義特征,并未充分認識到每個地區的獨特歷史背景、宗教信仰和哲學體系。事實上,這些文化之間在具體內容上存在著顯著不同。它們各自具有獨特的基本信念、道德準則和哲學思想,確立了不同的價值觀,在世界的不同地方發展和進化,產生了至今猶存的關鍵影響和重大作用,并在很大程度上塑造著不同地區的人們的不同思維方式、道德選擇和社會行為。這當然不是說當今世界上的所有文化都是軸心時代的產物,但它們的影響且深且巨,則無可否認。就儒家文化而言,其倫理價值觀影響了中國社會幾千年的歷史和發展,并滲透到東亞的許多國家和地區,在其社會秩序、家庭倫理、教育體系乃至治理理念上,都發揮著很大的作用。

                  人們難免主動選擇和堅守自己所信奉的價值觀,并相信其對于全人類所具有的重大意義。同時,人們還往往傾向于認為自己的價值觀是唯一的真理,因而在講述自己所崇奉的信仰或理論時,總是以提供“普遍”價值觀的姿態出現,掩蓋自己觀點的特殊來源。在本文看來,這并不是一個十分誠實的方法,因為并不存在沒有來源的價值觀。面對當代重要問題——諸如人工智能問題,人們首先需要公開闡明自己的價值觀的來源、前提、推理和結論,讓別人了解,同別人對話,而不是單方面預設自己是從“普遍”價值觀出發、假設自己的價值觀代表了所有文化的價值觀。那樣做其實是妄自尊大,因為每個人所提供的其實都是自己所熟悉所認可的那種文化價值觀;那樣做也缺乏建設性,因為沒有和別人進入一個清晰的、實質性的交流過程。在這些方法論考慮之下,本文專門提供儒家價值觀對于人工智能發展的回應,作為一家之言,以供大家參考。

                  二、儒家價值觀的回應

                  儒家價值觀是基于仁德的價值觀,將仁視為整個宇宙中最基本和最重要的價值。仁體現著上天的“生生之德”,在天地間發揮著至關重要的作用。儒家價值觀認為,人性本善,因為人有天生之德,上天已在人的內心深處植入了仁德的種子,即所謂惻隱之心(“人皆有不忍人之心”《孟子·公孫丑上》),它是人類特有的道德情感。正因為上天賦予了人這種道德情感,所以儒家認為“天地之性人為貴”(《孝經·圣治章》)。而且,儒家認識到仁德勢必要在適當的人際關系中得到培養和體現,而儒家最重視的人際關系就是五倫,要求“父子有親、君臣有義、夫婦有別、長幼有序、朋友有信”(《孟子·滕文公上》)。

                  的確,五倫(關系)是儒家價值觀中不可或缺的一部分,蘊含著人與人之間的相互尊重、責任和義務。這些關系的有效維持被視為構建社會秩序、實現社會和諧的基礎,是仁德實踐必不可少的載體。在這些倫理關系中,仁者以慈愛之心對待他人,尊重他人的尊嚴并照顧他人的利益,倡導互相敬重、理解和包容。五倫(關系)為其他關系(諸如師生關系、醫患關系)奠定了基石,樹立了模板,不但追求普遍的仁者之愛,而且實施具體的差等之愛。“親親而仁民,仁民而愛物”(《孟子·盡心上》),通過推己及人、關懷他人,促成人們在各類關系中進行和諧互動和適當反應,從而實現人際間的深厚親情、愛情和友情。特別是,儒家認識到這些關系及其正當的人際互動,勢必通過禮儀的引導和修煉才能有效進行,才能真正實踐“親親、仁民、愛物”的普遍而差等之愛,而不是只靠干巴巴的抽象原則的指導。這是儒家倫理學的一個極富見地的貢獻,值得特別重視。

                  基于這種儒家價值觀,我們將如何評價人工智能與人類智能的不同、如何回應當代人工智能的發展呢?   

                  (一)區別人類與機器

                  按照儒家的觀點,人類不但具有發達的自我意識,而且在內心深處存儲著仁德種子,即惻隱之心的道德情感,這是上天賦予人類的特質。與之相比,人工智能缺乏這種特質,這一差異構成了人類與(智能)機器之間的絕對重要的區別,劃清了二者之間的界限。儒家思想必然會對這一區別給予特別重視,支持把人類當作目的、把機器當作手段,讓機器為人的目的和利益服務,永遠不能也不應該抹殺它們之間的區別。

                  在儒家看來,惻隱之心使人類具備了發展良好的道德意識、道德判斷和道德行為的潛能,可以通過創建和實踐禮儀來形成復雜的社會互動、道德規范,從而使人類展現仁愛之情,關心和理解他人以及其他事物,在行為中體現出同情和善意。然而,人工智能缺乏這種道德情感和自我意識,其決策僅僅基于程序和算法;盡管在處理復雜任務和數據分析方面表現出色,但它們無法體會人類情感、無法真正理解道德或倫理內涵。因此,儒家思想勢必強調人類獨有的這種仁德情感和道德責任,充分認識到人工智能缺乏這種特質,從而將人類與人工智能機器嚴格區分開來,引領人們維護人類與技術之間的主從關系,在科技發展中保持人類的人文關懷和道德意識。

                  有人肯定會把這種觀點看作無法得到辯護的“物種主義”(speciesism)。批評者會說,雖然人類所具有的自我意識、道德情感、惻隱之心都是重要的生命價值,但它們不應該被看作是人類最應該重視和維護的客觀價值,從而像儒家那樣把人類凸顯出來,作為世界上唯一的最終目的。相反,功利主義哲學家認為,人類應當采取理想觀察者(Ideal Observer)的視角,看到減少痛苦、增加快樂才是最重要的價值,從而認識到只有平等地、不偏不倚地對待所有物種的痛苦和快樂,讓痛苦最小化、快樂最大化,才是真正客觀正確的價值觀。因此,批評者可能會總結說,如同人類物種主義已經造成了歧視和壓迫動物一樣,它也會造成歧視和壓迫人工智能“主體”的不良后果。

                  在儒家價值觀看來,這一批評可能會對未來的人工智能發展影響巨大(詳見下一節),但現今的人工智能機器尚未有意識,還不是生命,把它們完全當作工具,以為人的目的服務,根本談不上歧視或壓迫它們,哪怕人類確實歧視和壓迫了其他動物。然而,即使退一步說,把現有的人工智能機器看作某種類型的道德“主體”,因而具有某種類型的“利益”,功利主義也只是要么不可能實施、要么導致不相容結論的觀點。儒家的這一回應,可以在《孟子·滕文公上》所記載的儒家與墨家的爭論中看出端倪。儒家堅持愛有差等,墨家支持愛無差等,當今的功利主義類似于墨家的觀點。盡管當時的爭論限于人類之內,邏輯上也可擴展到物種之間。儒家認為,人的時間、精力和資源有限,要想實施仁愛,勢必做出區別對待,無法同時同樣地把愛施予所有人。這就是說,墨家所支持的愛無差等是無法實施的。墨家的回答是:“愛無差等,施由親始”(即我們只是從自己的父母親開始實施仁愛,并不是支持不平等的仁愛)。儒家的回應是,墨家在這里提出了兩條原則:一條原則說,愛不應該具有與關系有關的差別或等級(“愛無差等”);另一條原則則說,愛應該先從愛父母開始(“施由親始”)。這兩個原則是互不相容的,因為從愛父母開始來實踐愛,就是對愛做了與關系有關的差別化或等級化處理,實質就是“差等之愛”。

                  當今功利主義要求以所有利益相關者的最大利益為目標來進行平等的決策和行動,表面上似乎有理,實際上否認了人的有限性。假設人們能夠做出一個協調一致的“利益”理解的話,儒家可以同意,我們應該不只考慮人類的利益,也應該考慮其他事物的“利益”,諸如動物、植物、山川、大河,以至于人造智能機器。但如果要求人類平等地追求所有這些利益,從而能夠將整體利益最大化,那就完全超出人類的認知和計算能力了。這是因為,人類根本不知道如何匯總這千千萬萬個不同的利益,更不知道如何“平等地”平衡它們從而得出整體的最大利益。實際情況是,不同的價值觀給予不同的相關者以更大的關注、更多的愛護,從而做出不同的取舍:動物保護主義者更重視動物利益,生態主義者更重視生態系統的狀況,另一些人則更重視人工智能機器。只有做了這種“不平等”的區別和對待,人們才能得出明確的結論,盡管結論各有不同。這樣一來,儒家價值觀更看重人類,支持所謂人類物種主義,贊同人類與機器之間的主從關系,也就可以得到合理的間接辯護:鑒于人類智能相較于人工智能所具有的前述那些優點和成就,支持這一價值觀的道理可能會比支持其他價值觀的道理更強一些,至少不會比它們更弱。

                  (二)維護五倫價值

                  儒家價值觀強調五倫的重要性,因為這些人際關系構成了人類社會的基本組成部分,也構成了其他人際關系的基礎和模板。儒家認為,這些關系中蘊含著親情、義理、忠誠、友愛等重要的道德情感和準則,是人類正常互動的不可或缺的條件,是維系社會秩序和諧的紐帶,是文明社會的基石。因此,儒家思想認為,人工智能機器不應該影響甚至改變五倫的實質,使得人際關系變成人機關系。雖然機器具有強大的計算和執行能力,但它們缺乏情感、仁愛和道德判斷力,無法體會人類的情感經驗,無法展現同情、善意和關懷。因此,盡管機器在某些方面表現出色,它們也不應該取代人類在人際關系中所扮演的角色。

                  有人可能會反對說,使用人工智能勢必取代人類的角色。例如,當使用照護機器人把一位老人推到戶外去參加活動時,那不正是取代人類護工來做這項工作嗎?當使用醫療人工智能系統來閱讀病理圖像提出病理診斷時,那不正是取代病理學家來做這項工作嗎?按照這種看法,如果人工智能參與了這些工作并影響了人際關系,那就使得人機關系在相關的方面代替了人際關系,這是必然的事,也是好事,因為這樣做減輕了人的負擔,而且機器可能比人做得更好,正是反映了人自己愿意被機器取代來做這些事的結果。因此,反對意見會認為,儒家價值觀強調維護五倫價值,不要讓智能機器取代人際關系中人的角色,乃是似是而非的觀點。

                  這種反對意見忽視了人際關系中重要的部分與不重要的部分,即哲學一般所區分的內在價值與外在價值。按照儒家價值觀推理,五倫的價值核心,乃是人際雙方的親情、關愛、義氣、忠誠和誠信,它們蘊含著這一重要主張:有些事情一定要人類個體親力親為,不能由他人代勞,更不能由動物或機器來代替;而另一些事情則可以由他人代勞或由動物或機器來代替;還有一些事情則是人絕對不可以對他人做的。就最后一點而言,例如,親子之間不可以發生性關系,因為那是亂倫悖德。由機器人把老人推到室外去參加社交活動是可以的,這樣做并沒有真的取代人的角色,因為把老人推到室外只是工具目的、外在價值,而讓老人參加社交活動才是最終目的、內在價值。然而,如果這項活動不是為了讓老人同其他人類進行社交,而是同其他機器人進行“社交”,那就是真的取代人了。因為相互陪伴、交流、關愛,乃是人際關系的最終目的和內在價值。

                  毋庸諱言,隨著人形智能機器人的突飛猛進,五倫價值勢必面對嚴峻挑戰。即使智能機器人并沒有自我意識和道德情感,但它們將在語音、視覺等方面獲得長足進步:它們能夠“看見”你的身影、“聽懂”你的語氣、“理解”你的表情、同你進行“知心”交流。這將足以引起人的認知異化和情感異化:你會以為它真的具有自我意識,你還會以為它真的對你關心愛護;因而你對它產生了深深的情感依戀,建立了親密無間的關系,從而當真取代了人際關系,敗壞了五倫價值。這就是說,即使智能機器并沒有知覺、意識或情感,它們也能與人類建立虛假的親密關系,導致人類生活的異化。要想避免這種危險的出現,我們需要發展新型的禮儀來對待智能機器人,這些禮儀必須不同于人際關系的禮儀。

                  (三)發展新型禮儀

                  儒家價值觀特別重視禮儀實踐,認識到“禮”對于個人修身、家庭和睦、社會穩定以及國家治理都具有重要作用??鬃诱J為,禮不僅適用于人與人之間的關系,還應擴展到人與動物之間的關系,包括在動物去世后進行適當的埋葬,但這類對待動物的禮儀應該不同于對待人類的禮儀。這一觀點,對于我們應該如何對待智能機器人提供了有益的啟發。在這個新興領域中,儒家思想將不得不擴大傳統的禮儀范圍,創建與機器人相處的適當禮儀。

                  人類對于智能機器人以禮相待,就是要對它們講禮貌,避免使用粗暴的語言,但沒必要“尊重”它們。這是因為,儒家價值觀推崇“親親仁民愛物”的差等之愛,即使對于家畜動物,也應當愛惜,不應當野蠻對待,因為那不是對待動物的適當方式,而且會損害自己的美德培養;但儒家價值觀并不要求人類尊重動物,因為動物雖有知覺和情感,但它們只達到了應受人愛惜但沒有達到應受人尊重的程度。相應地說,要求人類尊重人工智能更是無稽之談,因為智能機器毫無知覺,毫無道德情感,甚至連普通的情緒也沒有,它們的倫理地位是低于動物的。

                  具體而言,對于照護機器人,特別是照護老人的機器人,如何建立人機之間的適當語言和禮儀呢?這需要人們在設計和使用照護機器人的兩個方面都做出適當的決定和行動。在設計方面,不能讓機器人“要求”人類使用者尊重它們,同時要注意避免讓它們在照護人類(特別是老人時)時取代子女或其他親人的角色。因而,有必要通過程序設計強制它們在與人交流互動時,明確聲明自身是人工智能機器,而非人類個體,避免使用者產生共情甚至移情效應。在使用方面,如何建立和維持一般禮貌禮儀來對待它們、但不同于對待人類照護者的禮儀和語言,也是非常重要的考量。如果老人愿意的話,也許可以對它說“謝謝”,但不必、也不應該表達飽含情感的謝意。

                  對于醫療機器人,應當如何設計、監管和使用它們呢?重要的是讓它們只作為人類醫生的助手、還是讓它們成為逐漸取代人類醫生的“全能”自動系統?在使用這類機器人時,至少對于重大醫療問題(無論是診斷還是治療),是必須征詢人類醫生的意見、由人類醫生來作最終決定、負最后責任、還是徑直聽取醫療機器人的意見就做決斷?我認為,基于儒家價值觀的判斷,應該只把它們作為醫生的助手來使用,而不應該讓它們取代人類醫生。

                  總之,從儒家價值觀出發,若要建議完全停止人工智能機器人的發展和應用,可能既不應該、也不現實。相反,人們可以根據儒家價值觀來創建適應人工智能機器人的新型禮儀系統,以指導人類與機器人之間的互動。這樣的禮儀體系可能會包括對機器人的適當禮貌語言以及對機器人合理使用的規范,同時維護基本的人際關系以及人類尊嚴,使得儒家仁德觀念可以進一步適應當代社會的發展,并在人類與機器人的互動中引導出更加和諧有效的道德關系,既能體現出對待這類機器的適當行為,又不會損害人際禮儀的高尚性。

                  三、超級人工智能的危險性

                  超級人工智能是具有遠超人類智能水平的智能,它們在現代科幻作品中經常出現。這種人工智能系統在認知能力、學習能力、問題解決能力等方面都遠遠超越人類,并且具有自我意識、情感和道德判斷能力,可以表現出高度的自主性、創造性和智慧性。當然,超級人工智能只是一種理論上可能的未來技術,當前的人工智能技術還遠未達到那種水平。當前的人工智能系統主要集中在特定領域的任務上,如語音識別、圖像識別、自然語言處理等,而要實現超級人工智能,需要克服諸多技術、倫理和安全方面的挑戰。

                  雖然超級人工智能只是一種概念上的設想,但已引起許多思考、討論以及巨大爭議,涉及人類與技術的未來關系、道德狀況、社會穩定以及關于權力、控制和倫理的深刻議題。有人傾向認為,超級人工智能將來必會出現,只是一個緩慢出現還是急速出現的問題,所以人類勢必要做兩手準備。但我認為,從倫理學觀點出發,一個極其重要的問題是,人類是否應該創造這種總體能力遠超人類,并且具有意識和情感的人工智能?倫理學肯定人的自由選擇和主動行為,強調人要為結果負責。即使人們沒有完全確定的知識和精確的預計,倫理學也沒有道理相信絕對的歷史決定論或絕對的技術決定論,因為它們否定了人的自由和作為,同倫理學的性格格格不入。從儒家價值觀出發,人類絕不應該主動制造超級人工智能,而是應該努力避免超級人工智能的產生。

                  不少人可能看到超級人工智能系統可能為人類帶來巨大的“利”。例如,它們可能幫助我們解決當今世界面臨的許多復雜問題,如疾病治療、環境保護等;它們也可能極大提高生產力和工作效率,為人類社會帶來更多福祉;而且,創造具有意識和情感的人工智能可能有助于人類更深入了解意識和情感的本質,探索這一最大的“未知”。相反,另一些人則看到可怕的“弊”:超級人工智能可能失控,導致嚴重后果,對人類造成極大危害;可能導致大規模失業,威脅社會穩定;具有意識和情感的人工智能還會帶來極其復雜的倫理問題,如權利、責任、自主性等。更可怕的是,我們不知道它們將會如何對待人類。

                  有的哲學家富有見地地闡述,超級人工智能如何對待人類,將取決于它們持有何種倫理價值觀,而不同的倫理價值觀將在塑造人工智能的道德取向和行為方式上發揮不同作用??档聜惱韺W強調普遍道德原則和所有理性存在者的尊嚴,如果超級人工智能采納康德主義觀點,它們可能會根據普遍適用的道德法則來對待人類,從而尊重人類的尊嚴和自由。相比之下,霍布斯倫理學強調權力和自利,如果超級人工智能受到霍布斯主義的影響,它們就可能會以實現自身目標和效用最大化為導向,確立絕對權威(利維坦),要求人類服從;如果人類不服從,它們就會將人類視為障礙,從而鎮壓甚至消滅人類。最后,休謨倫理學注重經驗和情感,如果超級人工智能采用休謨主義道德,它們就會根據感官經驗和情感來對待人類,可能會更注重與人類的情感聯系和共情狀況,但也可能受限于對人類情感的有限性而忽視甚至損害人類。

                  如果隨著技術的發展出現一個超級人工智能系統,在能力上碾壓所有其他系統,成為主導者,具有強大的資源和影響力,從而控制或整合所有其他系統,那么,我們實在難以推知這位人工智能“霸主”將會采納何種價值觀、如何對待其他系統,特別是將如何對待人類?如果不同的系統在不同的公司、機構或國家之間發展,導致具有不同特色和能力的多個超級人工智能系統同時存在,它們在技術上互相競爭,形成一個多元化的人工生態系統,那么,它們將如何對待人類?我們或許可以參考人類對待動物的歷史來做些推測:由于這些超級智能在認知、理性和情感方面都遠超人類,它們當然會將人類視作智力上和能力上的弱勢或劣勢群體,正如人類看待動物群體那樣。然而,很難設想它們都將持有完全相同的一種“人類倫理學”。相反,它們很可能持有不同類型的“人類倫理學”,正如不同的人類群體就如何對待動物持有不同類型的“動物倫理學”一樣。因而,有的超級人工智能系統可能傾向于將自己視為人類的主宰者和保護者,類似于人類對待寵物的方式,尋求人類的陪伴并給予人類以保護。另一個超級人工智能系統則可能傾向于將人類視為與它們一樣的“理性”存在者,采取相互平等和尊重的態度,類似于動物權利運動倡導者對待動物的方式。還可能會有超級人工智能系統將人類視為可供它們欣賞和娛樂的對象,如同人類將動物養在動物園中用來觀賞一樣。最后,也可能會有超級人工智能系統認為人類總體上有害無益,應該把人類徹底消滅(不論是使用逐漸的方式還是即時的方式),從而有利于整個宇宙的進化或改善。這些不同的可能性,都會將人類置于無可比擬的不確定性之中。

                  如上所述,儒家價值觀強調人類內在的仁德,相信人類具有與天地合一的特殊性質,能夠建立珍貴的五倫,體現人際關系的深邃情愛。在這種觀念下,“天地之性人為貴”乃為人類堅定的信念。鑒于超級人工智能的出現可能對這些價值構成嚴重威脅、將人類置于萬劫不復的不確定性之中,儒家價值觀勢必堅定反對制造超級人工智能。這里,可能性已經構成了足夠的反對理由,因為事關人類總體的尊嚴和生存。這一立場意味著需要人類在多個領域實施謹慎的審查和控制,以防出現超級人工智能。首先,在技術發展方面需要加強監督,步步緊盯。其次,倫理審查尤為重要,需要確保人工智能系統的開發和運作符合道德規范和人性原則。同時,法律限制必不可少,需要通過法律手段規范人工智能的發展和應用,保障人類權益和社會穩定。最后,國際合作至關重要,因為超級人工智能的影響跨越國界,需要國際社會的共同努力來制定標準、規范和實施監管。只有在技術、倫理、法律和國際社會的共同努力下,才能確保人工智能技術的發展不會損害人類的尊嚴和價值。

                  結語

                  本文嘗試提供基于儒家文化價值觀的思考,回應當代人工智能急速發展所引起的問題。

                  不少人看到了倫理價值觀的作用,但他們可能會質疑具體文化價值觀——諸如儒家價值觀的合理地位。他們會假定一種全方位的全球倫理價值觀的正當性,懷疑從儒家價值觀出發來思考和論證這些問題的偏狹性和局限性。的確,當代西方的個人主義、自由主義價值觀經常自封為唯一合適的全球倫理價值觀,與具體文化或群體觀點無關。然而,人們需要認識到,事實上,這種價值觀也是一種具體的文化價值觀,即現代西方的一種文化價值觀,有它自己的淵源、歷史和前提,不為許多其他文化所共享。

                  本文不否認世界上一些共同價值的存在,但認識到各類文化所共享的價值觀是一種有限的、單薄的甚至抽象的價值觀,不足以對“人工智能與人類智能的合理關系模式”進行深入充分的思考。要想做出切實的回應和進行富有啟發的論證,必須訴諸具體文化價值觀,因為只有在具體文化資源中才會具備有血有肉的價值承諾和相應的倫理寶藏,提供有力的思想信念和堅實的推理基礎。在這方面,盡管不同的文化價值觀存在分歧,但它們都是平等的、有意義的,沒有哪一種具體文化能夠證明自己屬于唯一得到辯護的正確文化而高于其他文化,處于一種其他文化都應該仰視和接受的地位。因此,只有從一種文化價值觀(例如儒家價值觀)出發來進行深入細致的探究,才有可能為其他文化提供參考,也有利于文化之間進行科技對話和良性合作。            

                  原載:《孔子研究》2025年第4期

                  作者:范瑞平,哲學博士,香港城市大學公共及國際事務學系哲學講席教授,主要研究方向為儒家生命倫理學、比較哲學。

                  免费一区二区无码东京热_亚洲乱亚洲乱少妇无码_五月亭亭六月丁香_爱搞搞视频

                  <address id="tpljj"></address>

                  <address id="tpljj"><nobr id="tpljj"><meter id="tpljj"></meter></nobr></address>
                  <address id="tpljj"></address><form id="tpljj"></form><address id="tpljj"><nobr id="tpljj"><th id="tpljj"></th></nobr></address>

                        <address id="tpljj"></address>

                            <address id="tpljj"></address>

                                  >