美國加利福尼亞州提出了一項(xiàng)新法案(SB 243),該法案要求人工智能(AI)公司定期提醒兒童,聊天機(jī)器人是 AI 而非人類。這項(xiàng)法案由加利福尼亞州參議員史蒂夫 帕迪拉提出,旨在保護(hù)兒童免受 AI“容易使人上癮、造成孤立和產(chǎn)生影響”等方面的危害。
該法案除了限制公司使用“易使人上癮的互動(dòng)模式”外,還要求 AI 公司向州醫(yī)療保健服務(wù)部提交年度報(bào)告,詳細(xì)說明平臺檢測到兒童產(chǎn)生自殺念頭的次數(shù),以及聊天機(jī)器人提及該話題的次數(shù)。此外,法案還要求公司告知用戶,他們的聊天機(jī)器人可能并不適合某些兒童使用。
去年,一位家長對 Character.AI提起了過失致死訴訟,指控該公司的定制 AI 聊天機(jī)器人“存在不合理的危險(xiǎn)”,原因是她的孩子在持續(xù)與該聊天機(jī)器人交流后自殺身亡。另一項(xiàng)訴訟則指責(zé)該公司向青少年發(fā)送“有害內(nèi)容”。隨后,Character.AI公司宣布正在研發(fā)家長控制功能,并為青少年用戶開發(fā)了一種新的 AI 模型,以屏蔽“敏感或具有暗示性”的輸出內(nèi)容。
參議員帕迪拉在新聞發(fā)布會上表示:“我們的孩子不是科技公司以他們的心理健康為代價(jià)進(jìn)行實(shí)驗(yàn)的小白鼠。我們需要為聊天機(jī)器人用戶提供常識性的保護(hù)措施,防止開發(fā)者采用那些他們明知會使人上癮和具有掠奪性的策略。”
隨著美國各州和聯(lián)邦政府加大對社交媒體平臺安全的監(jiān)管力度,AI 聊天機(jī)器人可能很快會成為立法者的下一個(gè)監(jiān)管目標(biāo)。