聯合國193個國家的17個目標,AI可以完成
全文共2191字,預計學習時長4分鐘
2015年,聯合國193個成員國都批准了2030年的「可持續發展目標」(SDG):呼籲採取行動「消除貧困,保護地球,確保所有人享有和平與繁榮」。
下表所示的17個目標是針對169個目標進行衡量的,並且設定了相應的時間表。例如,這些目標的第一個目標是:「到2030年,消除世界各地所有人的極端貧困,目前極端貧困的衡量標準是每天生活費低於1.25美元的人。」聯合國強調,科學、技術和創新(STI)對於實現這些雄心勃勃的目標至關重要。只有在過去十年才真正出現的技術(如物聯網(IOT)、區塊鏈和高級網路連接)的快速發展,才有令人興奮的SDG應用。
然而,沒有任何創新會比人工智慧(AI)和機器學習(ML)更具普遍性和變革性。麥肯錫全球研究所最近的一項研究發現,到2030年,AI將使全球產出增加約16%,即約13萬億美元。麥肯錫估計,它所帶來的生產力增長每年都會大大超過早期技術的影響,這些早期技術曾從根本上改變了我們的世界,包括蒸汽機、計算機和寬頻互聯網。
AI/ML不僅本身是革命性的,而且也越來越成為建立下一代技術的重要基礎。但是,它將帶來的變革速度和規模也帶來了風險,人類必須認真對待。
研究發現,在17個SDG中,AI/ML將直接貢獻至少12個,可能比其他任何新興技術都要多。在本文中,我們探討了三個領域的潛在用例,這些領域是全球目標的核心:金融普惠、醫療和救災以及交通。
金融普惠
獲得基本金融服務——包括儲存儲蓄、支付和接收款項以及獲得信貸和保險的工具——通常是緩解貧困的先決條件。全世界大約有20億人被限制或無法獲得這些服務。
AI/ML正日益幫助金融機構建立商業模式,為無銀行賬戶的人服務。例如,發放貸款的最大障礙之一就是許多個人和小微企業沒有正式的信貸記錄。初創企業越來越多地在非傳統數據源上運行ML演算法,以確定其信譽——從店主的訂單和付款歷史到心理測試。對作物產量和氣候模式數據的分析可用於幫助農民更有效地利用他們的土地,從而降低貸款機構和保險供應商的風險。
在小客戶市場中,AI/ML也被用來幫助服務提供商降低成本。其中包括自動個人理財管理、客戶服務聊天機器人和欺詐檢測機制。
直接影響的SDG:
醫療和救災
城鄉醫療服務不平等是許多發展中國家亟待解決的問題。
基礎設施薄弱的農村地區往往嚴重缺乏合格的醫療工作者和設施。帶有生物識別感測器的智能手機和攜帶型醫療設備等等工具,可以供醫生將其帶到患者家中,或者帶到村中心的公共位置,共享使用。然後,AI將醫生傳統的診斷和處方工作自動化。這可以降低成本,實現更快更準確的診斷,並減輕過度工作的醫療工作者的負擔。
AI也被用於在需要的地方獲取醫療用品。例如,一家名為Zipline的初創公司正在利用人工智慧來安排和協調無人機,將血液和設備運送到很難通過公路到達的盧安達農村地區(以及其他的非洲國家)。醫生通過簡訊系統訂購他們需要的東西,AI負責送貨。這大大減少了在緊急情況下獲取血液所需的時間,並消除了浪費。
在救災方面,基於新聞來源、社會媒體等數據的預測模型有助於簡化危機行動和人道主義援助。例如,AI支持的實時預測地震或洪水系統,將告訴人們在哪裡造成最大的破壞,可以幫助應急人員來確定該將精力分配到哪裡。
直接影響的SDG:
運輸
自動駕駛汽車只是AI領域在交通應用方面的冰山一角,因為它們在許多方面都是AI創新在交通領域最明顯但最不重要的影響之一。城市化浪潮的空前規模,給AI帶來了一系列亟待解決的重大問題。根據聯合國的數據,到2050年,25億人將移居城市——其中93%的人來自低收入和中等收入國家——這給物流帶來了巨大的挑戰。
公共交通——而不是私人車輛必須是任何解決方案的核心。我們已經看到人工智慧如何能大大提高城市交通網路的效率。例如,香港和新加坡的地鐵系統使用他們每天數以百萬計的乘客的數據,以及他們獨特的旅程,以確定列車及其時間表的最佳配置。
同樣,AI也將通過自動化和優化路線來改變全球貨運和航運業。這些創新將降低燃油消耗和成本,縮短行程時間。
直接影響的SDG:
除了便利,還有這些風險……
每個AI/ML應用程序都有可能深刻地改變數百萬人的生活。它們標誌著人類在面對最大挑戰的能力上的進一步改變。還有更多應用程序在這裡沒有討論,它們可能具有同樣強大的影響。
然而,如果沒有嚴格的保障措施,這種深刻的變化可能會帶來非常嚴重的風險。例如,在警務方面,預測分析越來越多地被用於監測可疑恐怖分子,預測可能發生犯罪的熱點地區,以及有效地分配執法資源,以便在犯罪發生時威懾、預防和應對這些犯罪。
但是AI可以為獨裁政府提供一套可怕的工具來鞏固對其公民的權力。AI將作為一種越來越有效的監測和鞏固絕對控制的手段提供給極權國家,使得民眾變得越來越不自由,而且沒有資源或有力的反擊。
在使用AI/ML推進SDG的進展過程中,我們必須採取措施監控和減輕可能嚴重阻礙我們實現這些目標的風險。這些包括:
· 濫用和侵犯消費者隱私——例如,如果未能在向研究人員提供數據訪問和保護用戶個人隱私之間達成有效平衡,結果私人數據被網路罪犯和黑客獲取,這種情況自然會引發憂慮。
· 開放式AI研究(尤其是政府)投資不足,這意味著很大一部分AI研究仍然是營利企業的專有知識產權。
· 未能對勞動力進行培訓、再培訓和教育,造成人員技能落後、工資能力下降。
· AI演算法中固有偏見的擴散,可能會對數字經濟的主幹發展造成歧視和打擊——以及其他迅速與AI交織在一起的技術的發展。
· 過度依賴自動化和機器監督,這會增加金融系統、監管系統和供應鏈系統崩潰的風險,並可能阻止人類在出現故障時迅速掌握控制下行的命令。
※今日芯聲:未來社會是否將重演「母系女權」?看看谷歌這份報告
※伊利諾伊大學:外部知識在命名實體識別任務中的重要性研究
TAG:讀芯術 |