放慢速度:有效運(yùn)用AI的秘訣

2026/01/05 20:11公益時(shí)報(bào)

  放眼望去,人工智能被宣傳為捷徑:幾秒鐘就能起草捐贈(zèng)信,瞬間就能總結(jié)簡(jiǎn)報(bào),幾分鐘就能審核數(shù)百份申請(qǐng)。這種趨勢(shì)只會(huì)愈演愈烈。OpenAI首席執(zhí)行官山姆·阿爾特曼(SamAltman)最近預(yù)測(cè),人工智能有朝一日可以完成人類高達(dá)40%的任務(wù)。

  在持續(xù)壓力下運(yùn)作的非營(yíng)利組織會(huì)覺得這種速度的承諾極具吸引力。但速度本身可能會(huì)削弱該領(lǐng)域最重要的東西:信任、公平和使命一致性。

  如果非營(yíng)利組織利用人工智能來幫助他們放慢速度——從而改進(jìn)決策并提高誠(chéng)信度,結(jié)果又會(huì)如何呢?我稱之為“慢速AI”,并通過我運(yùn)營(yíng)的關(guān)于該主題的簡(jiǎn)報(bào)小組以及我作為教授和研究員的工作,親眼見證了它的有效性。例如,在高等教育領(lǐng)域,慢速AI可以幫助教師重新思考評(píng)估方法,并幫助學(xué)生在學(xué)習(xí)時(shí)更具批判性思維。在科學(xué)和政策領(lǐng)域,它可以通過揭示數(shù)據(jù)缺口、偏見和受眾需求來改進(jìn)報(bào)告和簡(jiǎn)報(bào)。非營(yíng)利部門也能獲得類似的收益。

  這并非要摒棄技術(shù),而是要以促使人們停下來反思的方式運(yùn)用人工智能。這樣做有助于凸顯有問題的假設(shè),測(cè)試不同的信息傳遞方式,并揭示哪些視角被忽略了。

  對(duì)于非營(yíng)利組織而言,反思不應(yīng)是事后才考慮的事情。每一個(gè)決定都會(huì)對(duì)資助者和他們所服務(wù)的群體產(chǎn)生影響。如果人工智能被過快地使用,它可能會(huì)加劇不平等,忽略細(xì)微差別,或者傳遞出看似光鮮卻無法體現(xiàn)組織價(jià)值觀或使命的信息。

  另一方面,更審慎或更有條理地運(yùn)用人工智能,能夠幫助非營(yíng)利組織在做出資助決定之前檢查公平性。這能使得它們嘗試不同的信息傳遞方式,找到最符合自身價(jià)值觀的版本。這也能幫助它們認(rèn)識(shí)到不在場(chǎng)的人可能會(huì)如何看待它們的策略,從而揭示通常會(huì)忽略的細(xì)微差別。

  這并非一個(gè)復(fù)雜的過程,而是一種測(cè)試假設(shè)、避免盲目接受人工智能生成的第一個(gè)版本的方法。這些停頓只需幾分鐘而非數(shù)月,最終卻能讓非營(yíng)利組織的工作比追求速度更加深思熟慮、值得信賴。

  隱私也至關(guān)重要

  盲目追求速度也會(huì)影響隱私。將捐贈(zèng)者數(shù)據(jù)、草擬的撥款申請(qǐng)或敏感的案例記錄粘貼到AI聊天機(jī)器人中,是很容易的。但一旦上傳,這些信息會(huì)去哪里呢?許多平臺(tái)會(huì)保留訓(xùn)練提示信息,或者將其存儲(chǔ)在數(shù)據(jù)和隱私法規(guī)寬松的國(guó)家。

  對(duì)于非營(yíng)利組織而言,風(fēng)險(xiǎn)很高。一次泄密事件就可能破壞多年來與社區(qū)或捐贈(zèng)人建立的信任。因此,放慢速度也意味著設(shè)定明確的界限。在使用人工智能之前,請(qǐng)問自己:

  我是否在共享任何機(jī)密數(shù)據(jù)?該服務(wù)提供商對(duì)存儲(chǔ)、訓(xùn)練和消費(fèi)者保護(hù)有何規(guī)定?我的組織是否有內(nèi)部安全使用指南,包括如何編輯個(gè)人信息?

  反思型文化會(huì)檢查人工智能的生成內(nèi)容及其處理信息的方式。畢竟,隱私并非無關(guān)緊要的小事。它對(duì)維護(hù)組織的信譽(yù)至關(guān)重要。

  工作原理

  首先使用您熟悉的AI工具,例如ChatGPT、Gemini或您所在組織提供的其他平臺(tái)。您可以處理用于籌款、捐贈(zèng)人更新、項(xiàng)目規(guī)劃或社交媒體的文本。但請(qǐng)務(wù)必只將匿名或公開的材料輸入到聊天機(jī)器人中。切勿包含捐贈(zèng)人信息、案例記錄或其他機(jī)密數(shù)據(jù)。

  然后,嘗試用以下提示語句:

  提出假設(shè)。粘貼一小段文本——例如,一段來自撥款報(bào)告的段落——然后輸入:“這里包含哪些假設(shè)?”“缺少哪些人的視角?”注意回復(fù)是否突出了您之前沒有考慮到的不足之處。

  重新定義問題。對(duì)于撥款提案或簡(jiǎn)報(bào)的某個(gè)部分,可以說:“用三種不同的方式來闡述這個(gè)問題。”與同事分享結(jié)果,并討論哪個(gè)版本最符合組織的價(jià)值觀,或者最能引起資助者和政策制定者的共鳴。例如,如果您正在撰寫關(guān)于農(nóng)村醫(yī)療保健資金缺口的文章,AI可以幫助您重新措辭,使其側(cè)重于健康公平成果或疾病未經(jīng)治療帶來的經(jīng)濟(jì)影響。

  提出更多問題。在對(duì)外發(fā)送捐贈(zèng)人更新信息或利益相關(guān)者信息之前,請(qǐng)?jiān)儐枺?ldquo;我應(yīng)該考慮哪些后續(xù)問題?”利用這些建議確保文本清晰、全面,并與組織目標(biāo)和資助者的目標(biāo)保持一致。

  每項(xiàng)練習(xí)只需幾分鐘。雖然這種方法不會(huì)立即給出答案,但它會(huì)提供一些短暫的思考時(shí)間,從而防止使命偏離,并幫助非營(yíng)利組織做出清晰、公正的決策。

  雖然阿爾特曼預(yù)測(cè)人工智能很快將取代許多任務(wù),但他在同一次采訪中也承認(rèn),人工智能無法取代一件事:關(guān)心他人。而這正是非營(yíng)利工作的精髓。

  人工智能可以高效地起草、總結(jié)和分析,但它無法建立人際關(guān)系或培養(yǎng)同理心。這些仍然是人類獨(dú)有的能力。非營(yíng)利組織不應(yīng)該讓人工智能取代只有人類才能做的事情,而是應(yīng)該利用人工智能來增強(qiáng)它們以關(guān)懷之心開展工作的能力。放慢腳步進(jìn)行反思、保護(hù)隱私和提升判斷力并非效率低下。這是誠(chéng)信正直的表現(xiàn)。在非營(yíng)利領(lǐng)域,誠(chéng)信正直才是最重要的。

 ?。ㄞD(zhuǎn)自慈善紀(jì)事網(wǎng)站,作者山姆·伊林沃思,高文興翻譯)

網(wǎng)站編輯: