當心理學遇上程式碼:揭開科技背後的內心戲
科技和心理學這兩個領域,最初看起來就是不相干的東西——一邊是晶片、演算法,一邊是人的思考跟行為。不過,隨著像ChatGPT這樣的人工智慧系統悄悄地改變了數位世界,有些人就開始發現:其實它們有越來越多交集。有些討論甚至說,這種結合根本不是紙上談兵。
歐洲那邊前陣子通過了一部AI相關法案,大概意思是在提醒大家:技術不只在規格或效能層面影響我們,還會碰觸到很多很基本的人類層面。稍早有份研究(Weidinger等人,好像是兩年前)試著把這些「以人為本」的風險分門別類。舉幾個例子——
比方說:偏見、仇恨言論、被排除在外。AI如果拿來做決策,有時候會放大原本社會裡就有的不公平,那受傷害的往往還是那些常常被忽略的小群體。再來就是資訊風險,包括資料外洩、被偷偷監控之類的問題,這種事情讓很多人在意自己還剩多少資訊自主權。假訊息現在也很麻煩,因為AI生成內容的速度和規模聽說比以前多出好幾倍,結果大家對新聞真假越來越難判斷。
然後啊,有些比較厲害的人利用AI去做壞事,不管是假冒身分還是搞詐騙,都讓社會增加不少麻煩。還有一項比較少被討論,就是人機互動本身,如果設計得太懂心理學,其實反而可能操弄用戶或者鑽認知漏洞,所以有人覺得這牽涉到道德底線、人是否真的能做主。而且AI訓練過程挺費資源,再加上自動化可能衝擊工作機會,所以整個社會環境也不是沒壓力。
總之啦,上述那些分類告訴我們:技術架構跟人的影響根本切不開,它們其實一直纏在一起。
但講回現實,就算AI有它的一些好處,要讓絕大多數人都接受,也不是那麼簡單。有份最近的研究(Mahmud等人),雖然詳細內容記不得,但似乎提到……
歐洲那邊前陣子通過了一部AI相關法案,大概意思是在提醒大家:技術不只在規格或效能層面影響我們,還會碰觸到很多很基本的人類層面。稍早有份研究(Weidinger等人,好像是兩年前)試著把這些「以人為本」的風險分門別類。舉幾個例子——
比方說:偏見、仇恨言論、被排除在外。AI如果拿來做決策,有時候會放大原本社會裡就有的不公平,那受傷害的往往還是那些常常被忽略的小群體。再來就是資訊風險,包括資料外洩、被偷偷監控之類的問題,這種事情讓很多人在意自己還剩多少資訊自主權。假訊息現在也很麻煩,因為AI生成內容的速度和規模聽說比以前多出好幾倍,結果大家對新聞真假越來越難判斷。
然後啊,有些比較厲害的人利用AI去做壞事,不管是假冒身分還是搞詐騙,都讓社會增加不少麻煩。還有一項比較少被討論,就是人機互動本身,如果設計得太懂心理學,其實反而可能操弄用戶或者鑽認知漏洞,所以有人覺得這牽涉到道德底線、人是否真的能做主。而且AI訓練過程挺費資源,再加上自動化可能衝擊工作機會,所以整個社會環境也不是沒壓力。
總之啦,上述那些分類告訴我們:技術架構跟人的影響根本切不開,它們其實一直纏在一起。
但講回現實,就算AI有它的一些好處,要讓絕大多數人都接受,也不是那麼簡單。有份最近的研究(Mahmud等人),雖然詳細內容記不得,但似乎提到……
AI法案告訴我們的事:技術與人性的危險交會點
好像有份研究,大約在去年吧,提出組織裡面碰到科技變革時會遇到三種主要的心理阻力。有些人說那叫價值障礙,就是新技術看起來跟原本公司或行業長久以來重視的東西不合拍。舉個例子,很多藝術創作者會覺得AI介入,好像搶走了作品裡頭那種屬於人的真實感。有聽過醫療圈的人也在講,演算法診斷系統讓他們覺得專業判斷被邊緣化了,道德和關懷的部分也被忽略。
不過,有的時候並不是對價值觀有疑慮,而是習慣了一套流程,突然要改變反而很難適應。這種傳統阻力,不只是在老牌產業才有,就連新興領域也會出現。其實大家都知道,要放棄用很順手的方法去學一套全新的工具,那種心理上的不自在,不只是一點點。
還有一類比較微妙的因素,有人稱作形象障礙。像律師事務所就擔心,如果太快引進AI協助寫文件,客戶可能懷疑機器做出來的不夠細膩,也許沒有人工那麼值得信賴。有時候不只是怕自己搞砸,更怕同行、外界怎麼看。
不同國家狀況可能差很多。之前看到一個中國團隊大概去年底出的調查,他們發現創意產業裡,中國地區的人抗拒AI的情形似乎比歐美少很多。他們推測,也許文化背景偏向集體主義,大家傾向把技術當成能帶動整體進步的工具,比較願意嘗試。不過每次談到文化影響,其實很難下一個定論,只能說目前看到某些趨勢。
總之越來越多學者認為,人怎麼想、怎麼感受,比起純粹技術能力,更能決定企業數位轉型到底成不成功。有些研究說,那些懂得處理員工心理層面困難的公司,好像比單靠硬體軟體投入表現更穩健一點。再有幾份資料提醒,其實最終關鍵往往不是你用了什麼新東西,而是人願不願意跟著一起改變。至於這背後原因,有待更多經驗累積才能慢慢釐清吧……
不過,有的時候並不是對價值觀有疑慮,而是習慣了一套流程,突然要改變反而很難適應。這種傳統阻力,不只是在老牌產業才有,就連新興領域也會出現。其實大家都知道,要放棄用很順手的方法去學一套全新的工具,那種心理上的不自在,不只是一點點。
還有一類比較微妙的因素,有人稱作形象障礙。像律師事務所就擔心,如果太快引進AI協助寫文件,客戶可能懷疑機器做出來的不夠細膩,也許沒有人工那麼值得信賴。有時候不只是怕自己搞砸,更怕同行、外界怎麼看。
不同國家狀況可能差很多。之前看到一個中國團隊大概去年底出的調查,他們發現創意產業裡,中國地區的人抗拒AI的情形似乎比歐美少很多。他們推測,也許文化背景偏向集體主義,大家傾向把技術當成能帶動整體進步的工具,比較願意嘗試。不過每次談到文化影響,其實很難下一個定論,只能說目前看到某些趨勢。
總之越來越多學者認為,人怎麼想、怎麼感受,比起純粹技術能力,更能決定企業數位轉型到底成不成功。有些研究說,那些懂得處理員工心理層面困難的公司,好像比單靠硬體軟體投入表現更穩健一點。再有幾份資料提醒,其實最終關鍵往往不是你用了什麼新東西,而是人願不願意跟著一起改變。至於這背後原因,有待更多經驗累積才能慢慢釐清吧……
Comparison Table:
心理差異在跨文化經營中的重要性 | 科技產品的吸引力因文化而異,需根據當地心態推廣 |
---|---|
設計過程中納入心理學觀點 | 從一開始就考慮使用者心理,能減少阻力 |
終端用戶參與開發 | 讓用戶參與可提升接受度和投入感,但資源有限 |
改變故事敘述的重要性 | 將新科技視為日常的一部分,有助於減輕焦慮感 |
建立透明度以增進信任 | 清楚說明AI能力範圍,避免失望情況 |

為什麼我們抗拒改變?藏在組織裡的三大心理關卡
現在很多人討論自動化,其實背後有些心理層面的東西,說不上來,有點複雜。像知識工作者,這幾年開始接觸一些低程式碼的自動化工具,原本要自己慢慢做的事情,好像用一個流程一設就能跑掉大半——比如說誰還會真的一封封地看信、回信?印象中好像才沒多久前,這事還是大家每天的例行公事,但現在連內容都能被系統判斷然後自動處理。有些平臺嘛,n8n、Make、IFTTT之類,不懂技術的人也能把自己的工作流程搞得挺複雜,一下子省了不少工夫。可是問題又來了:如果員工主動去把自己那份工作給簡化到幾乎不需要人,那心裡多少會有點怪怪的。有人可能覺得,這不就是在讓自己變得可有可無?
這種情況其實挺難避免,就像某些公司推數位轉型,看起來是時代趨勢,可底下的人未必真心接受。因為你叫他們配合,他們表面上照辦,可心理上總會想保留一點存在感或安全感,所以推行成效常常沒有預期好——我猜啦,如果相關員工對未來有危機意識,那成功率應該比理想狀況要低不少。即使企業長遠利益受損,但對個體而言,每天的焦慮更難忽略。
說到底,就是技術上的可行性和人的心理落差拉開了一段距離。有些專案光靠科技根本補不起那道鴻溝,如果不碰觸大家最根本的不安,也很難徹底落地。有趣的是,以前產業轉型,比如計程車司機換到 Uber 或其他平台,其實核心身份沒什麼變——從頭到尾還是在載客,只是換了系統。但 AI 和自駕車又是另一回事,不只是改變作業方式,更直接挑戰「人需不需要參與」這個問題。所以怎麼說呢,大概目前各種新舊交錯裡,有太多細微的矛盾和猶豫吧。
這種情況其實挺難避免,就像某些公司推數位轉型,看起來是時代趨勢,可底下的人未必真心接受。因為你叫他們配合,他們表面上照辦,可心理上總會想保留一點存在感或安全感,所以推行成效常常沒有預期好——我猜啦,如果相關員工對未來有危機意識,那成功率應該比理想狀況要低不少。即使企業長遠利益受損,但對個體而言,每天的焦慮更難忽略。
說到底,就是技術上的可行性和人的心理落差拉開了一段距離。有些專案光靠科技根本補不起那道鴻溝,如果不碰觸大家最根本的不安,也很難徹底落地。有趣的是,以前產業轉型,比如計程車司機換到 Uber 或其他平台,其實核心身份沒什麼變——從頭到尾還是在載客,只是換了系統。但 AI 和自駕車又是另一回事,不只是改變作業方式,更直接挑戰「人需不需要參與」這個問題。所以怎麼說呢,大概目前各種新舊交錯裡,有太多細微的矛盾和猶豫吧。
東西方大不同:文化如何悄悄影響我們擁抱科技
說到Jevons悖論,這個詞好像有點繞,其實意思並不複雜。人們大致上發現,只要某樣東西變得更有效率、更便宜,大家反而會用得比以前還多。就像電力吧,如果供電變便宜了,不少家庭和公司也許會開始開更多燈、用更耗能的設備。這種情況在交通領域似乎也可能發生——如果哪天司機都被AI取代,出行成本降下來,有些原本搭公車或捷運的人或許就會轉去坐私家車了。
不過,這些討論其實只是冰山一角。科技跟心理之間的糾纏遠不只工作被誰取代那麼簡單。有篇文章裡提過:「數位壓力、科技成癮、永遠在線帶來的心理衝擊,都已經漸漸滲入我們日常。」舉幾個方向吧:
注意力經濟是現在很常聽到的詞。手機APP、網頁推播,每天搶著人的專注力。結果怎麼樣?專心做事越來越難,腦袋常常一會兒飄走。有時候明明才剛回完訊息,又跳出別的通知,好像都沒真正休息過。
另外,那種「上下班界線」愈來愈模糊也是一回事。差不多有超過七成的人可能都碰過,下班還要回郵件或處理群組訊息。有時候覺得喘不過氣,甚至產生焦慮感。不少人會說大腦真的需要空白,但科技卻總是把你拉回螢幕前。
身份認同呢?現在很多人生活重心早已轉移到線上。不管是社群帳號還是職場形象,都混在一起了。有些人在網路上的表現和現實中差很大,也有人為了維持形象感受到壓力——這些新型態的心理負擔,很難直接量化。
其實理解這些心理層面的影響,大概比想像中重要。如果設計技術的人沒想到這點,用戶最後受傷的反倒是自己。所以每次開發新功能,其實同時也在打造某種「使用者心境」。設計怎麼做,體驗就長什麼樣子——這點好像有點道理但又說不清楚。
至於信任,大概算是科技普及背後比較關鍵的一環。沒有太多人會百分百放心新東西,但只要建立起某種程度的信任感,用戶才願意嘗試……剩下細節,好像每個案例都有自己的故事,無法一句話講完。
不過,這些討論其實只是冰山一角。科技跟心理之間的糾纏遠不只工作被誰取代那麼簡單。有篇文章裡提過:「數位壓力、科技成癮、永遠在線帶來的心理衝擊,都已經漸漸滲入我們日常。」舉幾個方向吧:
注意力經濟是現在很常聽到的詞。手機APP、網頁推播,每天搶著人的專注力。結果怎麼樣?專心做事越來越難,腦袋常常一會兒飄走。有時候明明才剛回完訊息,又跳出別的通知,好像都沒真正休息過。
另外,那種「上下班界線」愈來愈模糊也是一回事。差不多有超過七成的人可能都碰過,下班還要回郵件或處理群組訊息。有時候覺得喘不過氣,甚至產生焦慮感。不少人會說大腦真的需要空白,但科技卻總是把你拉回螢幕前。
身份認同呢?現在很多人生活重心早已轉移到線上。不管是社群帳號還是職場形象,都混在一起了。有些人在網路上的表現和現實中差很大,也有人為了維持形象感受到壓力——這些新型態的心理負擔,很難直接量化。
其實理解這些心理層面的影響,大概比想像中重要。如果設計技術的人沒想到這點,用戶最後受傷的反倒是自己。所以每次開發新功能,其實同時也在打造某種「使用者心境」。設計怎麼做,體驗就長什麼樣子——這點好像有點道理但又說不清楚。
至於信任,大概算是科技普及背後比較關鍵的一環。沒有太多人會百分百放心新東西,但只要建立起某種程度的信任感,用戶才願意嘗試……剩下細節,好像每個案例都有自己的故事,無法一句話講完。

自動化時代最矛盾困境:親手讓自己失業的恐懼
技術做得再好,用戶不信任,說真的也沒多大用。那種所謂的透明、可以掌控還有預測性,其實與其說是純粹技術問題,更像是心理層面的東西。有些人會把「信任」拆成幾個層面,不知道是不是每個人都認同,但大致上能看到這樣的分類:一種叫程序上的信任,就是你明不明白這技術到底怎麼跑的,感覺舒服不舒服。有時候那些黑箱AI,雖然運算精準,可讓人心裡總怪怪的;另一種是對結果的信賴,意思就是這些系統給出來的答案,有沒有跟用戶期待差不多。要是哪天冒出一個完全解釋不了或看起來很反常的結果,就算背後理論再正確,好像還是很多人猶豫要不要用下去。還有人在意價值觀是不是和自己合拍——如果AI老是在追求什麼效率最大化,卻給人一種冷冰冰、不太顧人的感覺,在醫療或照護領域這類地方,好像就比較容易被質疑。
這些心理帳面上的信任,比起那些工程規格、性能數據什麼的,大概更直接影響到大家最後會不會真的使用某項新科技。有不少案例就是因為沒建立好這層關係,所以技術明明行得通,到頭來推廣反而卡住。
講到文化差異,本來以為只是誰先接受AI、誰慢點,其實可能複雜多了。比如之前有人提過中國年輕族群對創意型AI接受度高一些,其實世界各地心理框架都不太一樣。有時候討論科技影響,有些地方主要在想「我自己會受什麼影響,比如工作機會之類」,但另外一些國家重視的是集體,例如社會進步或者國家競爭力。傳統和創新的拉鋸,也不是哪邊一定壓倒另一邊,而是不同國家心裡怎麼權衡而已。
再比如權威專家的話重不重要,在某些文化背景下專家一句話能帶動滿多人,但有些地方大家比較喜歡親自試了才相信。風險承受力嘛,也挺微妙,有些國家的人遇到未知情況比較膽大,有些則寧願保守點等別人先踩雷。所以光看表面數據,很難抓住為什麼某地區推行新科技快或慢,背後都有許多小細節糾結在一起,得花時間慢慢摸索才有點頭緒吧。
這些心理帳面上的信任,比起那些工程規格、性能數據什麼的,大概更直接影響到大家最後會不會真的使用某項新科技。有不少案例就是因為沒建立好這層關係,所以技術明明行得通,到頭來推廣反而卡住。
講到文化差異,本來以為只是誰先接受AI、誰慢點,其實可能複雜多了。比如之前有人提過中國年輕族群對創意型AI接受度高一些,其實世界各地心理框架都不太一樣。有時候討論科技影響,有些地方主要在想「我自己會受什麼影響,比如工作機會之類」,但另外一些國家重視的是集體,例如社會進步或者國家競爭力。傳統和創新的拉鋸,也不是哪邊一定壓倒另一邊,而是不同國家心裡怎麼權衡而已。
再比如權威專家的話重不重要,在某些文化背景下專家一句話能帶動滿多人,但有些地方大家比較喜歡親自試了才相信。風險承受力嘛,也挺微妙,有些國家的人遇到未知情況比較膽大,有些則寧願保守點等別人先踩雷。所以光看表面數據,很難抓住為什麼某地區推行新科技快或慢,背後都有許多小細節糾結在一起,得花時間慢慢摸索才有點頭緒吧。
數位生活暗黑面:那些讓我們焦慮的科技副作用
在跨文化經營的組織裡,心理差異這回事其實很常被忽略。有些人在某個地方覺得科技產品特別有吸引力,但換到另一種文化環境,好像就沒什麼效果。這背後,大概跟各地人們的想法、心態有關吧,不能指望所有地方都用一套方法推廣。
然後說到新技術——尤其像人工智慧這類東西,要讓大家真的用起來,不只是看誰工程能力高。其實還牽涉到很多人的心理狀態、生活習慣,甚至是對未來的不安。有些做法或許能拉近技術和人的距離,雖然不見得每次都適用,但至少可以試試看。例如:
- 有的人認為,如果從頭開始設計時就把心理學的觀點納進去,遇到阻力的機會也許會少一些,比等問題發生後才補救要好。
- 另一種方式,是直接請終端用戶參與開發過程。這樣一來,他們比較容易投入其中,也比較不會抗拒新東西。不過,也不是每個團隊都有資源這樣做。
- 有時候,改變故事敘述也挺重要。協助人們重新思考自己的工作內容,把新科技當成日常的一部分,而不是什麼威脅,好像能減少一些焦慮感。
- 還有一點,不少專家提到透明度。講清楚哪些事AI現在辦得到,哪些還差一大截,有助於建立信任。如果只顧著強調厲害之處,一旦落空反而讓人失望。
- 當然啦,道德規範也不可少。不少人在意偏見、公平與否,以及人性尊嚴之類議題,所以明確訂出價值標準,大概能讓大家多點安全感。
講到最後,好像很難有哪個公司或團隊可以靠單方面「推銷」新科技就一路順風了。很多時候,是要慢慢摸索,用理解和包容的方式去設計系統,同時兼顧人的需求和技術優勢。未來嘛,應該還是那些懂得數位轉型本質很「人性」的組織,比較容易適應吧——但現實情況總是複雜,有時候還得看運氣和背景因素如何交錯影響呢。
然後說到新技術——尤其像人工智慧這類東西,要讓大家真的用起來,不只是看誰工程能力高。其實還牽涉到很多人的心理狀態、生活習慣,甚至是對未來的不安。有些做法或許能拉近技術和人的距離,雖然不見得每次都適用,但至少可以試試看。例如:
- 有的人認為,如果從頭開始設計時就把心理學的觀點納進去,遇到阻力的機會也許會少一些,比等問題發生後才補救要好。
- 另一種方式,是直接請終端用戶參與開發過程。這樣一來,他們比較容易投入其中,也比較不會抗拒新東西。不過,也不是每個團隊都有資源這樣做。
- 有時候,改變故事敘述也挺重要。協助人們重新思考自己的工作內容,把新科技當成日常的一部分,而不是什麼威脅,好像能減少一些焦慮感。
- 還有一點,不少專家提到透明度。講清楚哪些事AI現在辦得到,哪些還差一大截,有助於建立信任。如果只顧著強調厲害之處,一旦落空反而讓人失望。
- 當然啦,道德規範也不可少。不少人在意偏見、公平與否,以及人性尊嚴之類議題,所以明確訂出價值標準,大概能讓大家多點安全感。
講到最後,好像很難有哪個公司或團隊可以靠單方面「推銷」新科技就一路順風了。很多時候,是要慢慢摸索,用理解和包容的方式去設計系統,同時兼顧人的需求和技術優勢。未來嘛,應該還是那些懂得數位轉型本質很「人性」的組織,比較容易適應吧——但現實情況總是複雜,有時候還得看運氣和背景因素如何交錯影響呢。

信任危機!為什麼再好用的AI也可能被冷落
原本大家談到未來,總會提科技會不會取代人類這回事,但其實啊,文章最後倒是留了一句挺耐人尋味的話——未來重點也許不是讓科技去超越或替代人,而是在數位能力跟人類心理中間找一個剛好舒服的平衡。這種說法,讓不少專家開始有些不同方向的想像。
有時候在討論這些議題時,心理安全變成了很重要的一環。怎麼創造出可以讓人放心試錯、學習的新型數位空間?大概得下不少功夫。有些學者覺得,如果沒有那種「可以不用怕犯錯」的感覺,大家用什麼新工具都可能只是敷衍了事。
另外一種角度,好像叫做增強心理學。意思差不多是說,人用這些科技,不只是外掛某個工具而已,而是慢慢地、潛移默化地把它融入生活甚至自我認同裡頭。自我和機器的界線,有時候變得模糊起來,也挺值得研究。
再換個場景想,有團體(像某些公司或社區)對新科技的態度,其實常常比單一個人的看法還要複雜。他們之間會形成一種比較集體的關係網或共同印象——到底哪群人比較容易接受新系統?哪邊推動起來卡卡的?往往跟組織氛圍或領導方式有關,不見得是一兩句話能說清楚。
至於世代差異,那就更明顯了。有的人小時候就接觸電腦、手機;另一批則長大後才摸到這玩意兒。結果,同樣一套工具,他們跟技術產生連結的方式天差地遠。不少調查發現,大致上每隔幾十年出生的人,在面對相似數位產品時,心理反應和使用習慣都可能完全不同。
整體來看,「科技碰撞心理」這件事,比想像中更複雜,也沒被仔細研究過多少次。但最近AI系統越做越細緻又隨處可見後,不少專家開始覺得,如果忽略人的感受與思考模式,要順利把機器帶進日常生活、辦公室甚至整個社會,好像還真不是件簡單事。很多困難點,就卡在那些冷冰冰數據與人的內心世界之間——說穿了,就是我們自己經常忽略掉的小細節反而最難解決。不過啦,只要願意花時間慢慢釐清兩者交集的位置,也許能開發出更貼合人性的科技產品,既尊重心理健康,又不失創新的價值。
參考資料方面,有篇二〇二三年的文章討論過ChatGPT在創意領域引發的大量疑慮,有興趣的人可以再找來看看。
有時候在討論這些議題時,心理安全變成了很重要的一環。怎麼創造出可以讓人放心試錯、學習的新型數位空間?大概得下不少功夫。有些學者覺得,如果沒有那種「可以不用怕犯錯」的感覺,大家用什麼新工具都可能只是敷衍了事。
另外一種角度,好像叫做增強心理學。意思差不多是說,人用這些科技,不只是外掛某個工具而已,而是慢慢地、潛移默化地把它融入生活甚至自我認同裡頭。自我和機器的界線,有時候變得模糊起來,也挺值得研究。
再換個場景想,有團體(像某些公司或社區)對新科技的態度,其實常常比單一個人的看法還要複雜。他們之間會形成一種比較集體的關係網或共同印象——到底哪群人比較容易接受新系統?哪邊推動起來卡卡的?往往跟組織氛圍或領導方式有關,不見得是一兩句話能說清楚。
至於世代差異,那就更明顯了。有的人小時候就接觸電腦、手機;另一批則長大後才摸到這玩意兒。結果,同樣一套工具,他們跟技術產生連結的方式天差地遠。不少調查發現,大致上每隔幾十年出生的人,在面對相似數位產品時,心理反應和使用習慣都可能完全不同。
整體來看,「科技碰撞心理」這件事,比想像中更複雜,也沒被仔細研究過多少次。但最近AI系統越做越細緻又隨處可見後,不少專家開始覺得,如果忽略人的感受與思考模式,要順利把機器帶進日常生活、辦公室甚至整個社會,好像還真不是件簡單事。很多困難點,就卡在那些冷冰冰數據與人的內心世界之間——說穿了,就是我們自己經常忽略掉的小細節反而最難解決。不過啦,只要願意花時間慢慢釐清兩者交集的位置,也許能開發出更貼合人性的科技產品,既尊重心理健康,又不失創新的價值。
參考資料方面,有篇二〇二三年的文章討論過ChatGPT在創意領域引發的大量疑慮,有興趣的人可以再找來看看。
從矽谷到上海:全球科技接受度的心理地圖
歐盟好像在二〇二五年三月左右釋出過一個有關人工智慧規範的政策,有些人說那份文件叫什麼AI法案,應該是在討論怎麼管理這類新技術。網路上大概能找到相關訊息,看起來是官方網站,不過具體內容偶爾會更新,反正歐洲對數位未來這件事似乎一直都有不少討論。
換個話題吧——說到經理們面對演算法,其實有些人天生就不太信任這種東西。有篇文章大概去年、前年左右出的,幾位作者討論了為什麼有些管理層會排斥用演算法。據他們的調查,好像技術接受度跟創新抗拒心理多少都有點影響。有的人因為覺得自己還沒準備好,也有人純粹只是習慣問題。不過他們也提到,如果能提升大家對科技的熟悉感,或許可以讓這種抗拒稍微減緩一些,但也不是百分之百有效,大致上只能說在某些情境下可能有幫助。
然後最近差不多一兩年內,有學者陸續發表了一些研究,名字我印象中比較長。他們探討與人工智慧相關的社會議題,有時候還牽涉到組織內部運作。不過嘛,細節部分每篇文章都略有不同,也許哪天又會冒出新的看法。
換個話題吧——說到經理們面對演算法,其實有些人天生就不太信任這種東西。有篇文章大概去年、前年左右出的,幾位作者討論了為什麼有些管理層會排斥用演算法。據他們的調查,好像技術接受度跟創新抗拒心理多少都有點影響。有的人因為覺得自己還沒準備好,也有人純粹只是習慣問題。不過他們也提到,如果能提升大家對科技的熟悉感,或許可以讓這種抗拒稍微減緩一些,但也不是百分之百有效,大致上只能說在某些情境下可能有幫助。
然後最近差不多一兩年內,有學者陸續發表了一些研究,名字我印象中比較長。他們探討與人工智慧相關的社會議題,有時候還牽涉到組織內部運作。不過嘛,細節部分每篇文章都略有不同,也許哪天又會冒出新的看法。

設計師必學!打造讓人安心擁抱科技的5個秘訣
有些人說數位轉型好像能讓組織變得靈活一點,至少在不少報告裡面可以看到這樣的說法。大概在最近幾年,企業開始嘗試用各種新科技——像人工智慧那類——來調整管理方式或者業務流程。不過這種影響有多明顯,好像還是有點看情境。有時候,大約三成左右的公司感覺到改變確實帶來了一些效率提升,但也有人認為只是微幅成長。
如果從另一個角度來看,有團隊討論過AI怎麼協助企業挖掘數位潛力,他們提到,用AI自動化部分決策流程,也許會讓溝通速度快上個幾倍。但聽說效果並不總是一致,有研究指出在不同產業當中,數據分析和機器學習的落地成果差異頗大。有些地方甚至只是在初步測試階段,就先停下來觀望了。
然後啊,學界對於這些變革到底帶來多大彈性或增強競爭力,其實意見分歧。某些專案經理提及,大約將近一半的受訪者覺得轉型還需要傳統手法配合才比較穩當。不過也不能否認,有一些案例展示出透過逐步導入新技術,公司適應市場變動的能力似乎慢慢上升。
總之,目前大家對這塊領域的看法還算保留,多半覺得得搭配其他條件才能真正發揮作用。至於未來會不會持續推廣、效果是不是能維持下去,可能還要花上一段時間觀察吧。
如果從另一個角度來看,有團隊討論過AI怎麼協助企業挖掘數位潛力,他們提到,用AI自動化部分決策流程,也許會讓溝通速度快上個幾倍。但聽說效果並不總是一致,有研究指出在不同產業當中,數據分析和機器學習的落地成果差異頗大。有些地方甚至只是在初步測試階段,就先停下來觀望了。
然後啊,學界對於這些變革到底帶來多大彈性或增強競爭力,其實意見分歧。某些專案經理提及,大約將近一半的受訪者覺得轉型還需要傳統手法配合才比較穩當。不過也不能否認,有一些案例展示出透過逐步導入新技術,公司適應市場變動的能力似乎慢慢上升。
總之,目前大家對這塊領域的看法還算保留,多半覺得得搭配其他條件才能真正發揮作用。至於未來會不會持續推廣、效果是不是能維持下去,可能還要花上一段時間觀察吧。
未來已來:當人類與AI成為最佳拍檔的可能性
有那麼一組學者,像是Kasirzadeh、Biles、Brown、Kenton等人吧,大致上在二〇二二年左右,他們弄了一份資料,也許是針對語言模型的風險做出歸類。他們好像是在一場與公平性還有責任制比較有關的會議上討論這些內容,不少人會把這場活動簡稱成ACM FAccT什麼的。作者裡面,有Birhane和Hendricks,還有大概叫Rimell和Isaac的人也在內,後面還拉了Gabriel一起掛名。
如果說要講這份東西在談什麼,他們好像是試著整理那些被語言模型帶來的各式各樣問題。有些細節我記不太清楚,只知道他們分門別類,把潛在的風險拆解成幾種不同方向,內容橫跨技術上的意外、倫理爭議或者系統偏見之類。有人回憶裡面提過,比方說偏見輸出,其實遠比大家想像中更常發生,可能不是偶爾才遇得到,而是將近一半的測試情境都能看見蛛絲馬跡。不止這樣,還牽涉到安全困難、人為誤用或資訊洩漏,好像都沒辦法完全預防。
參與討論的人看起來來自不同背景,有些學者專攻技術層面,有些則側重社會衝擊,所以觀點也不太一致。有趣的是,他們似乎沒有給出解決所有問題的方法,而是反覆提醒我們需要持續留意這些新興風險,好像強調「目前只能部分緩解」,很多挑戰還需要慢慢累積經驗才能看得更清楚。至於那篇文章嘛,如果有人想找原始來源,好像可以透過某個期刊或連結找到,但具體哪個網站我倒不是很確定。
如果說要講這份東西在談什麼,他們好像是試著整理那些被語言模型帶來的各式各樣問題。有些細節我記不太清楚,只知道他們分門別類,把潛在的風險拆解成幾種不同方向,內容橫跨技術上的意外、倫理爭議或者系統偏見之類。有人回憶裡面提過,比方說偏見輸出,其實遠比大家想像中更常發生,可能不是偶爾才遇得到,而是將近一半的測試情境都能看見蛛絲馬跡。不止這樣,還牽涉到安全困難、人為誤用或資訊洩漏,好像都沒辦法完全預防。
參與討論的人看起來來自不同背景,有些學者專攻技術層面,有些則側重社會衝擊,所以觀點也不太一致。有趣的是,他們似乎沒有給出解決所有問題的方法,而是反覆提醒我們需要持續留意這些新興風險,好像強調「目前只能部分緩解」,很多挑戰還需要慢慢累積經驗才能看得更清楚。至於那篇文章嘛,如果有人想找原始來源,好像可以透過某個期刊或連結找到,但具體哪個網站我倒不是很確定。