自Chatgpt於2022年首次亮相以來,Generative AI迅速進入了我們的工作,學習和個人生活,以前所未有的速度幫助加快了研究,創建內容以及更多的速度。
可以理解的是,對生成AI工具的熱情已獲得了吸引力 比互聯網或PC的採用率更快,但專家警告我們應該謹慎行事。與每項新技術一樣,生成的AI可以通過多種方式推動社會,但如果不受組織的檢查也會帶來後果。
這些聲音之一是納塔莎·戈文德·羅珀特(Natasha Govender-Ropert),是Rabobank的金融犯罪負責人。她加入了TNW創始人Boris Veldhuijzen van Zanten的最新一集“起亞的下一個Big Drive”,談論AI倫理,偏見,以及我們是否將大腦外包給機器。
查看完整的面試 – 在途中記錄到TNW2025 起亞的全電動EV9:
TNW城市聯合辦公空間 – 最好的工作發生
一個專為技術核心的增長,協作和無盡的網絡機會而設計的工作空間。
我們應該想到的一個問題是,當我們越來越多地尋求生成的人工智能以尋求答案時,這種依賴對我們自己的智能有什麼影響?
最近 麻省理工學院的研究 從chatgpt撰寫論文的使用中,從“研究人員說使用chatgpt可以腐爛大腦”到“ chatgpt可能會讓您懶惰而愚蠢”,這已經呈現為轟動一時的頭條新聞。就是這樣 真的 情況?
您的大腦在AI代
這是什麼 實際上 發生了:研究人員給了54個波士頓地區的學生一項論文任務。一個組使用Chatgpt,另一組使用Google(沒有AI的幫助),第三組除了大腦以外,第三個不得不寫。當他們寫作時,他們的大腦活動是使用電極測量的。
經過三個課程,僅大腦的組顯示出最高水平的心理連通性。 chatgpt用戶?最低。似乎AI輔助的人正在自動駕駛巡遊,而其他人則不得不更努力地考慮到頁面上的單詞。
對於第四輪,角色顛倒了。這次,僅大腦的小組必須使用Chatgpt,而AI組必須獨自進行。結果?前者改善了論文。後者努力記住他們首先寫的東西。
總體而言,該研究發現,在進行的四個月中,唯一的腦部參與者就神經,語言和行為水平優於其他群體,而使用Chatgpt的人則在論文上花費了更少的時間,而只是擊中復制/粘貼。
審查工作的英語老師說,這缺乏原始的思想和“靈魂”。聽起來令人震驚,對嗎?也許,但事實比轟動的人的頭條提示更為複雜。
這些發現與大腦衰減有關,而更多地是關於精神捷徑。他們表明,在LLM上過度融合可以減少心理參與。但是,有了積極,周到的使用,可以避免這些風險。研究人員還強調,儘管這項研究提出了一些有趣的問題進行進一步的研究,但它也太小而簡單,無法得出確定的結論。
批判性思維的死亡?
雖然發現(尚未進行同行評審)肯定需要進一步的研究,並更深入地思考我們應該如何在教育,專業和個人背景下使用此工具,但也許實際上可能腐爛的是我們的大腦的頭條新聞是TLDR的頭條新聞,以獲得精確度的點擊。
研究人員似乎分享了這些擔憂。他們創建了一個 帶常見問題頁面的網站 他們敦促記者不要使用不准確的語言和轟動的發現。


具有諷刺意味的是,他們將結果的“噪音”歸因於記者使用LLM來匯總該論文,並補充說:“如果您閱讀了紙張或部分內容,您的人類反饋是非常可喜的。此外,提醒您,該研究都有我們在紙張和網頁上非常清楚地列出的限制列表。”
我們可以從這項研究中安全得出兩個結論:
- 對應如何在教育環境中使用LLM的更多研究是必不可少的
- 學生,記者和公眾都需要對我們收到的信息(無論是從媒體還是生物AI)保持批評
阿姆斯特丹VU大學的研究人員 擔心,隨著我們對LLM的日益依賴,真正有風險的是批判性思維,或者我們質疑和改變社會規範的能力和意願。
“學生本身可能不太可能進行廣泛或全面的搜索過程,因為他們會遵守Genai產出的權威和知情語調。他們可能不太可能質疑(甚至可以識別)未說明的觀點,這些觀點未能考慮其觀點已被掩蓋的,並授予授權的假設來告知主張。”
這些風險表明AI中的更深層次問題。當我們以面值進行輸出時,我們可以忽略嵌入式偏見和不受挑戰的假設。解決此問題不僅需要技術修復,而且需要對我們首先對偏見的含義進行批判性思考。
這些問題是納塔莎·戈文德·羅珀特(Natasha Govender-Ropert)的工作的核心,納塔莎·戈文德·羅珀特(Natasha Govender-Ropert)是Rabobank的金融犯罪負責人。她的角色著重於建立負責任的,值得信賴的AI,來紮根偏見。但是,正如她向TNW創始人Boris Veldhuijzen van Zanten指出的“起亞的下一個大型驅動器”,偏見是一個主觀的術語,需要為每個人和每個公司定義。
Govender-Ropert說:“偏見並不是一致的定義。我認為偏見或公正的偏見可能與其他人不同。這是我們作為人類和個人需要決定的東西。我們需要做出選擇,並說這是查看數據時我們將要執行的原則標準的標準。”
社會規範和偏見不是固定的,而是不斷變化的。隨著社會的發展,我們訓練LLM的歷史數據卻沒有。我們需要保持批判性,並挑戰我們收到的信息,無論是從我們的人類還是我們的機器中,建立一個更公正,公平的社會。
#chatgpt真的讓我們愚蠢而懶嗎