《國家人工智慧戰略》(NSAI)將人工智慧置於印度政府計劃的前沿,突顯了其在改善醫療保健、農業和教育等領域結果的潛力。
人工智慧在擴大專業服務(例如,遠程診斷和精準農業諮詢)交付和增強對政府福利服務的包容性訪問(例如,區域語言聊天機器人和語音界面)方面的作用,為政府在這些領域的干預提供了途徑。
此外,NSAI強調建立一個強大的生態系統的必要性,該生態系統能夠促進前沿研究,以解決社會問題並作為人工智慧創新的試驗場,同時使印度能夠通過將這些解決方案擴展到全球來承擔戰略性的全球領導角色。
- 安全性和可靠性原則:人工智慧的部署應遵循其預定目的,並採取健全措施以保證相關利益相關者的安全。努力應集中於最小化所有參與方的風險,並需建立完善的機制以處理不滿、提供護理和在意外或無意的傷害情況下提供賠償。在整個生命周期內,持續監測人工智慧系統是確保其一致性和可靠性表現與預定目標相符的關鍵。
- 平等原則:人工智慧系統應確保對於相似決策相關情況下的個體進行平等對待。
- 包容性和非歧視原則:人工智慧系統不得基於個體的身份對合格個體進行歧視。應避免加劇與宗教、種族、階級、性別、血統、出生地或居住地相關的分歧,特別是在教育、就業和公共空間的訪問等領域。人工智慧系統應積極防止不公正地排除個體獲得服務或福利。在作出不利決定的情況下,應為所有人提供可負擔且可及的申訴機制,無論其背景如何。
- 隱私和安全原則:人工智慧必須維護用於訓練系統的個人或實體的數據隱私和安全。訪問權限應僅授予經過授權的個體,並實施健全的保護措施。
- 透明原則:人工智慧系統的設計和運作應記錄在案,並在最大程度上對外部審查和審計可得。這確保了部署的公平性、透明性和問責性。
- 責任原則:每個創建、開發和實施人工智慧系統的方都應對其行為負責。這些利益相關者應進行風險和影響評估,以衡量人工智慧系統對最終用戶的直接和間接影響。他們應建立內部審計過程,如有必要,還應進行外部審計,以確保遵守這些原則,並建立機制以在出現任何負面後果時處理不滿。
- 保護和增強積極人類價值的原則:人工智慧必須維護積極的人類價值,並不應破壞社會和諧。
主要參與者
在過去十年中,印度的私人部門投資總額達到77.3億美元,其中近40%的資金集中在2022年。風險投資的增長從2021年到2022年增加了129%,達到22.6億美元。
基於人工智慧的初創公司的總資金在2022年達到51億美元,較2018年的8.7億美元有所增長。數據顯示,私人部門在人工智慧領域蓬勃發展,特別是在初創企業的增長方面,像VerSe、Uniphore和Fractal等公司在2022年獲得了可觀的資金。
在2023年,IT巨頭Wipro宣布將投資10億美元,以提升其人工智慧能力,目標是在2026年前實現。
為了建立一個健康的生態系統,以確保人工智慧在國內的發展,印度政府推出了幾項支持研發並鼓勵該領域投資的舉措。
國家信息中心(NIC)提供基於雲的平臺,以促進人工智慧服務,例如專注於深度學習模型並適用於聊天機器人和語音服務的AI-Manthan,以及針對面部識別等生物識別技術優化的AI-Satyapikaanan。
國家人工智慧門戶網站和國家人工智慧使命的建立旨在鼓勵全國範圍內的人工智慧發展和採用。MeitY初創企業中心和國家電子政務計劃則旨在進一步推進信息技術的發展。
人工智慧與機器人中心(CAIR)於2014年成立,專注於人工智慧、機器人技術和網絡的研發。2023年預算中宣布將設立三個人工智慧卓越中心(CoE)。這些中心將設立在頂尖教育機構內,讓領先的行業參與者合作進行農業、健康和可持續城市等領域的跨學科研究。與此同時,印度人工智慧計劃的宣布也將推出一個人工智慧平台,擁有全球最大規模的公開組建數據集之一,該數據集的直接訪問將僅限於該國的初創企業。
非國家行為者也越來越多地採用和部署人工智慧以惡意目的。例如,恐怖組織抵抗前線(TRF)和穆斯林運動(TMI)在2020年COVID-19封鎖期間使用深度偽造視頻和圖片來煽動暴力。2021年,在印度空軍基地查謨發生了雙重爆炸事件,該事件由無人機協助進行;調查顯示巴基斯坦恐怖組織拉什卡爾-e-塔伊巴(Lashkar-e-Taiba)參與其中。
Comments