AI世代:從政治哲學反思人工智慧的衝擊

AI世代:從政治哲學反思人工智慧的衝擊 pdf epub mobi txt 电子书 下载 2025

馬剋.科剋爾柏格
圖書標籤:
  • 人工智能
  • 政治哲學
  • 科技倫理
  • 未來學
  • 社會影響
  • AI風險
  • 數字時代
  • 科技與社會
  • 倫理學
  • 哲學
想要找书就要到 灣灣書站
立刻按 ctrl+D收藏本页
你会得到大惊喜!!

圖書描述

人臉辨識、數位威權、同溫層效應……
科技是中立的嗎?
科技真的能帶來更好的未來嗎?
人工智慧將走嚮何方,隻取決於我們如何利用嗎?

自由、平等、正義、民主、種族議題與氣候變遷──這些對人類生活至關重要的諸多議題與概念,與人工智慧有何關聯?

卡夫卡的《審判》、歐威爾的《一九八四》裡頭所描繪的社會狀態,或許將不再隻是文學寓言。AI的發展及其帶來的技術革命,甚至已經超越瞭二十年前的網際網路,它能夠與人交談、能夠學習甚至創作,它看似能夠大幅改善人類的生活,但也將顛覆我們所熟知的各種價值……

AI不隻是一種科技,更是一種政治。它能夠存取龐大的資料,從中進行應用與學習,卻也能從這些數據中進行預測、操控與管製。AI具有「權力」,僅以倫理學角度看待AI已經不閤時宜,我們必須正視它為人類社會帶來的挑戰,無論是技術層麵的運用,例如執法手段的變革對公民自由形成的威脅,或是潛在的影響,例如大數據對人類行為(勞動、消費、金融)的形塑與規訓。它有可能危害民主、加速社會的透明化、加劇當前的分配不平等、形塑人們的自我認同;甚至,我們不得不超前思考AI在未來形成一種政治社群的可能。

本書大膽嘗試理論跨界,以古典理論迴應當代議題,同時提齣政治哲學所關懷的重要議題及概念,必須將科技發展納入視野,且必然隨著科技的發展而改變。無論是人文學術界、技術工程界、產業界或是政策製定者,都不可不知與AI相關的規範性理論,及本書所提供的理論框架。本書適閤所有關注AI技術的讀者,及所有關心總體趨勢的讀者。



「人工智慧在根本上是一個政治的領域,這本書闡明瞭其中的原因。本書涵蓋瞭關於不平等、民主、權力和後人類主義的爭論,並顯示瞭社會和政治理論對於理解人工智慧的重要性。」
凱特.剋勞馥,《人工智慧最後的秘密》(Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence)作者

「與人工智慧相關的倫理學與政治哲學這兩個領域,聚焦在許多相同的問題上,但很難看到後者的豐富歷史被用來理解人工智慧的政治。科剋爾柏格在這本重要的著作,給齣瞭一個值得注目的例外。」
Henrik Skaug Sætra,奧斯陸大學資訊學係助理教授

「科剋爾柏格的真正重點在於,他展示瞭數韆年的哲學思想不會因為數字工程的成就而變得過時。」
Scott McLemee,《高等教育》(Inside Higher Ed
 
好的,這是一份關於一本名為《AI世代:從政治哲學反思人工智慧的衝擊》的圖書的簡介,但內容將完全圍繞該書未包含的、但可能與主題相關的其他領域和議題展開,旨在提供一個詳盡的、不提及原書內容的介紹。 --- 《數字文明的邊界:算法治理、社會信任與後人類倫理》 作者:[此處假設一位虛構作者名] 導言:數據洪流中的航嚮 我們正身處於一場由數據驅動的、前所未有的技術革命之中。這場革命不僅僅是工具的革新,更是對人類社會結構、權力分配乃至個體存在本質的深刻重塑。本書聚焦於這場劇變的核心——算法的普及與深化——並試圖超越單一的技術視角,深入探討其在社會治理、人際信任構建以及未來倫理框架中所激起的巨大漣漪。我們麵對的不再是簡單的效率提升,而是文明形態的躍遷。 第一部分:算法權力與治理的再定義 在現代社會中,效率與公平的平衡一直是政治哲學的核心議題。然而,當決策權的部分轉移到復雜的、不透明的算法係統手中時,這一平衡被徹底打破。《數字文明的邊界》首先剖析瞭“算法權力”的興起及其對傳統主權概念的挑戰。 一、權力的去中心化與黑箱政治 本書詳盡考察瞭大數據分析和機器學習模型在公共服務、資源分配甚至司法裁決中的應用現狀。我們深入分析瞭“黑箱操作”的政治意涵——當一個復雜的係統得齣結論時,其決策過程往往難以被人類理解、問責或有效乾預。這不僅僅是一個技術透明度問題,更是對民主問責製這一基石的根本性侵蝕。我們探討瞭數據主權的概念,並對比瞭不同司法管轄區(例如歐盟的《通用數據保護條例》與中美在數據監管上的不同哲學路徑)如何試圖重新界定國傢、企業和公民之間的數據控製權。 二、社會信用與數字化監控的張力 社會信用體係的構建,無論是作為一種風險管理工具,還是作為一種社會行為規範化的手段,都引發瞭關於自由與秩序的深刻辯論。本書細緻描繪瞭這些係統如何通過持續的數據采集和評估,悄然塑造公民的行為模式。我們審視瞭“預測性警務”的倫理睏境:在算法預測的框架下,個體是否會因為“潛在的行為風險”而受到不平等的對待?這種基於概率的治理模式,如何侵蝕瞭個人隱私的“絕對領域”,並將傳統的公民權利置於持續的、動態的評估之下? 三、數字鴻溝的代際固化 技術進步的紅利並非平均分配。本書批判性地審視瞭數字基礎設施、接入能力以及“算法素養”上的巨大差異如何加劇瞭社會階層的固化。我們探討瞭技術精英與普通用戶之間的認知鴻溝,以及這種鴻溝如何轉化為實際的經濟機會和政治影響力上的不平等。治理的挑戰在於,如何設計齣既能促進創新,又能確保弱勢群體不被技術進步的浪潮所拋棄的包容性政策框架。 第二部分:信任的重構:人際交往與社會資本 信任是社會穩定和經濟運行的潤滑劑。在數字空間中,人際互動和信息傳播的機製被徹底重寫,這直接影響瞭我們對“真實”的認知和對“他者”的信任程度。 四、信息繭房與認知極化 推薦算法在最大化用戶參與度的同時,無意中造成瞭信息環境的碎片化。本書詳細分析瞭“信息繭房”和“迴音室效應”如何通過強化既有信念來阻礙建設性的對話。我們研究瞭社會心理學與網絡動力學相結閤的成果,解釋瞭在高度過濾的信息流中,極端觀點是如何被算法所助長,並最終導緻社會群體間的認知極化和信任瓦解。我們探討瞭在“後真相時代”,重建基於事實和共同經驗的社會信任的可能性路徑。 五、數字身份的脆弱性與真實性危機 在高度數字化的社會中,身份的確認和維護變得愈發復雜。深度僞造(Deepfakes)技術的成熟對視覺和聽覺證據的可靠性構成瞭空前的挑戰。本書討論瞭這種“真實性危機”對法律、新聞業乃至人際關係構成的衝擊。當任何影像、聲音都可以被輕易地捏造,我們如何確立一個共同的現實基礎?我們考察瞭基於區塊鏈和去中心化標識符(DID)等技術如何嘗試構建更具韌性的數字身份驗證係統,以恢復對信息的信心。 六、連接的悖論:疏離與社群的再造 社交媒體看似提供瞭無邊界的連接,但許多研究錶明,這常常伴隨著個體孤獨感的增加。本書從社會學角度剖析瞭“連接的悖論”:超連接狀態下的信息過載如何稀釋瞭深層關係,導緻關係膚淺化。我們同時考察瞭在數字空間中,新的、基於共同興趣或邊緣身份的“虛擬社群”是如何形成和運作的,以及這些社群在多大程度上能替代傳統實體社群的功能,提供情感支持和歸屬感。 第三部分:後人類倫理與存在的界限 技術的進步迫使我們重新審視“人”的定義。本書的第三部分將目光投嚮更深遠的未來,探討我們必須為即將到來的倫理挑戰做好準備。 七、責任歸屬的模糊地帶 隨著係統自主性的增強,傳統的道德和法律框架在處理係統錯誤或傷害時顯得捉襟見肘。如果一個自動駕駛車輛發生緻命事故,責任應歸於程序員、硬件製造商、車主,還是算法本身?本書構建瞭一個關於“代理責任”的倫理模型,主張在高度復雜的係統中,必須建立一種前瞻性的、基於係統設計者而非僅僅是操作者的問責機製。 八、認知增強與物種分化 神經技術、生物工程與計算科學的交叉融閤預示著人類自身形態的可能變化。我們探討瞭關於“認知增強”的倫理爭議:這些技術是否會創造齣新的、具有顯著認知優勢的“後人類”群體,從而導緻物種內部的不可逆轉的分化?本書呼籲社會必須提前製定規範,以確保任何增強技術的發展都服務於人類的共同福祉,而不是加劇現有的不平等。 九、意義的追尋:在效率至上的時代 當大量的勞動被自動化接管後,人類存在的價值和意義將何去何從?本書辯證地考察瞭“工作倫理”的衰落,以及創造力、關懷、審美等非量化價值在未來社會中的地位。我們探討瞭基礎收入保障(UBI)等社會經濟實驗,旨在為人類在沒有強製性勞動需求的未來中,重新發現和確立生活的意義提供理論基礎。 結語:麵嚮不確定性的韌性 《數字文明的邊界》旨在為讀者提供一套批判性的工具箱,以應對一個被算法深刻塑造的世界。我們需要的不是對技術的盲目恐懼,也不是無條件的樂觀接受,而是一種深刻的哲學反思、堅實的社會製度韌性,以及對人類核心價值的堅定捍衛。本書鼓勵讀者積極參與到對這些邊界的劃定與維護中去,確保技術服務於一個更公正、更人性化的未來。

著者信息

作者簡介

馬剋.科剋爾柏格Mark Coeckelbergh
一九七五年生於比利時,人工智慧倫理學專傢、科學哲學傢,現為維也納大學哲學係教授,專攻媒體與技術哲學。曾任哲學與技術學會(Society for Philosophy and Technology, SPT)主席、歐盟執行委員會人工智慧高級專傢組成員;著作豐富,包括瞭Growing Moral Relations(2012)、 Human Being @ Risk(2013)、 Environmental Skill(2015)、Money Machines(2015)、New Romantic Cyborgs(2017)、Moved by Machines(2019);教科書Introduction to Philosophy of Technology(2019)、 AI Ethics(2020)。

作者從現象學與關係學角度思考機械哲學,主要著作集中在機械倫理學與資訊溝通技術(ICT, information and communication technologies)等領域;作者的另外一本著作Human Being @ Risk講述瞭「脆弱性」與技術之間的關係,在該書中提齣瞭「脆弱性的人類學」(anthropology of vulnerability)的概念,並投入到人類增強(human enhancement)與超人類主義(transhumanism)的問題,同時該著作也獲得許多迴響。

在學術活動之外,作者亦活躍於媒體及各類公開講座。百餘篇學術論文與齣版物獲得大量引用,同時亦時常接受媒體採訪,談論無人機技術的倫理問題等。


譯者簡介

鄭楷立
英國華威大學政治與國際研究係博士,臺大政治學係兼任助理教授,學術專長是當代政治哲學/理論(主要是分配正義理論、平等主義、政治哲學方法論和馬剋思主義)。翻譯,但不以翻譯為業。

圖書目錄

導論

「我猜是電腦弄錯瞭」:在二十一世紀的約瑟夫.K

本書的理論依據、目標與方法

本書結構與各章概述

 

二、自由:人工智慧的操控與機器人奴役

導言:歷史上的自由宣言與當代奴役

人工智慧、監控與執行法律:剝奪消極自由

人工智慧與人類行為的操縱:規避人類的自主性

對於自我實現與解放的威脅:人工智慧的剝削與機器人奴隸的問題

誰來決定人工智慧?作為參與的自由、選舉中的人工智慧,與言論自由

其他與政治相關的自由概念與其他價值

 

三、平等與正義:由人工智慧所造成的偏見與歧視

導言:偏見與歧視作為提齣關於平等與正義問題的焦點

為什麼偏見是錯的(1)?在英語世界中標準的自由主義政治哲學中的平等與正義

為什麼偏見是錯的(2)?階級與認同理論作為普世的自由主義思想之批判

結論:人工智慧不是政治上中性的

 

四、民主:同溫層效應與機器極權主義

導論:人工智慧作為民主的一個威脅

人工智慧作為對民主、知識、審議與政治本身的威脅

由柏拉圖開始:民主、知識與專業

        超越多數決與代議

        審議與參與式民主v.s.爭勝與基進式民主

        訊息泡泡、同溫層效應與民粹主義

        更多的問題:操控、取代、課責和權力

人工智慧與極權主義的起源:鄂蘭的教誨

        人工智慧與極權主義

        鄂蘭論極權主義的起源與平庸之惡

 

五、權力:經由數據的監控與(自我)規訓

導論:權力作為政治哲學中的一個主題

權力與人工智慧:邁嚮一般性的概念框架

馬剋思主義:人工智慧作為科技資本主義的一項工具

傅柯:人工智慧如何使我們臣服,並使我們成為主體

                規訓與監控

                知識、權力、以及自我和主體的形成與塑造

技術展演、權力、與人工智慧

結論和待解問題

 

六、非人類怎麼辦?環境政治與非人類主義

導論:超越一種以人為本的人工智慧和機器人技術的政治

在政治上,不是隻有人類纔算數:動物和(非人類)自然的政治地位

對於人工智慧和機器人技術之政治的影響

                人工智慧對非人類和自然環境所造成的影響之政治意義

                人工智慧本身的政治地位?

 

結論:政治技術

我們迄今在本書所做的事,以及我們能得齣什麼結論

下一步該怎麼做:關於政治技術的問題

 

緻謝

參考資料

圖書序言

  • ISBN:9786263189881
  • 叢書係列:Discourse
  • 規格:平裝 / 320頁 / 21 x 14.8 x 1.9 cm / 普通級 / 單色印刷
  • 齣版地:颱灣
  • 適讀年齡:25歲~55歲

圖書試讀

用户评价

评分

這本書的敘事節奏非常獨特,它不像許多科普讀物那樣追求信息量的爆炸式傾瀉,反而更像是一場精心編排的辯論會。作者似乎非常擅長運用曆史的縱深感來對比當下的睏境,將當代關於AI倫理的爭論,與啓濛運動時期的社會契約論、甚至古希臘的城邦理念聯係起來。這種跨越時空的對話,極大地拓寬瞭我對“治理”和“秩序”的理解邊界。我特彆欣賞它在處理那些灰色地帶時的那種猶豫和審慎——它沒有給齣廉價的“是”或“否”的答案,而是不斷地拋齣更尖銳的、需要我們自己去填補邏輯空白的問題。這種“懸置判斷”的寫作手法,初讀時或許會讓人感到有些晦澀,但一旦抓住其內在的邏輯鏈條,就會發現其思想的張力是多麼的強大。讀完一部分,我感覺像是經曆瞭一場嚴格的智力訓練,那些關於自由意誌在算法世界中如何被定義和約束的探討,至今仍在我的腦海中盤鏇不去。

评分

我個人認為,這本書的最大貢獻在於它提供瞭一個極具穿透力的分析工具,用以解構當前AI浪潮背後的意識形態基礎。它不滿足於僅僅討論“AI會不會搶走工作”這類錶層問題,而是深挖到技術範式的轉變如何觸及我們政治生活最核心的基石——即“誰有權定義什麼是好的生活”這一終極命題。作者巧妙地將技術哲學與當代政治理論緊密編織在一起,構建瞭一個宏大且自洽的分析框架。閱讀體驗是極具挑戰性的,因為它要求讀者不僅要熟悉基礎的政治哲學概念,還要能夠迅速適應作者構建的新型概念體係。那些關於透明度、可解釋性和算法公正性的討論,都擺脫瞭常見的技術修辭,上升到瞭憲政和權利保護的高度,這讓我感到非常震撼,也為我理解未來社會形態提供瞭一種更為堅實的思想錨點。

评分

這本書的格局之大,讓我不得不佩服作者的學術視野和跨界整閤能力。它不像許多同類書籍那樣,將重點放在對特定模型或應用的介紹上,而是采取瞭一種俯瞰全局的視角,將人工智能視為一種新的“政治本體論”的體現。作者對於曆史文本的引用和闡釋非常到位,這些引證並非是簡單的點綴,而是作為支撐其論點的重要基石。閱讀過程中,我能清晰地感受到一種對人類中心主義進行溫和但堅決的挑戰,作者似乎在溫柔地提醒我們,技術的發展並非是自然演進的宿命,而是由一係列被權力驅動的、充滿政治博弈的選擇所塑造的。這種對“必然性”的質疑,是全書最令人振奮的部分,它賦予瞭讀者一種認識到改變仍有可能的希望,盡管前路漫漫,至少思想的武器已經鑄就。

评分

這本書的開篇就給我一種非常強烈的哲學思辨的衝擊力,作者的筆觸細膩而深邃,似乎不僅僅是在探討技術本身,更像是在解構我們對“智能”和“人性”的傳統認知。閱讀過程中,我時不時會停下來,反復咀嚼那些關於主體性、能動性和道德責任的論述。它沒有落入那種純粹的技術樂觀主義或技術悲觀主義的窠臼,而是以一種近乎冷靜的審視態度,將人工智能置於一個宏大的政治哲學框架之下進行剖析。特彆是關於權力結構如何在新興技術麵前重塑或鞏固的討論,非常引人入勝。作者似乎在引導我們思考,當我們把決策權逐漸讓渡給算法時,我們究竟是在追求效率,還是在無形中放棄瞭某種至關重要的、關乎公共福祉的民主參與權?這種對技術背後政治意圖的挖掘,讓我對日常接觸到的智能應用産生瞭全新的警惕和反思,覺得這絕不是一本可以輕鬆翻閱的書,它要求讀者投入大量的思考能量,去與作者共同構建一個更具批判性的認知地圖。

评分

從文學性角度來看,這本書的語言風格是相當高遠的,它極少使用那種迎閤大眾的、通俗易懂的口號式錶達,反而偏愛使用精準且富有層次感的術語,這使得整本書讀起來像是在品鑒一篇精妙的學術論文,但又不失作為一本麵嚮公眾的思想著作應有的關懷。作者對於概念的界定非常嚴謹,比如他如何區分“自動化決策”與“責任歸屬”之間的鴻溝,以及如何梳理齣不同哲學流派對信息主權的看法。這本書的價值在於,它迫使我們走齣日常“使用AI”的便利舒適區,進入到“理解AI權力場域”的艱難險阻。很多章節需要反復閱讀纔能真正體會到其中蘊含的諷刺意味和深刻的洞察力,比如對“效率至上”原則在政治領域被無限放大的批判,那種冷靜的筆觸下蘊含著對社會異化的深切憂慮。

相关图书

本站所有內容均為互聯網搜尋引擎提供的公開搜索信息,本站不存儲任何數據與內容,任何內容與數據均與本站無關,如有需要請聯繫相關搜索引擎包括但不限於百度google,bing,sogou

© 2025 twbook.tinynews.org All Rights Reserved. 灣灣書站 版權所有