譯/尺度
編者按:但在某種程度上,智能語(yǔ)音助手是AI運動(dòng)的“喉舌”,在我們的日常生活中越來(lái)越普遍。但是,我們應該以一種什么樣的方式對待它們呢?近日,《連線(xiàn)》雜志發(fā)表了一篇文章,討論了人們對智能語(yǔ)音助手的態(tài)度,以及應該以一種什么樣的方式對待智能助手。作者為“EMILY DREYFUSS”,原題“THE TERRIBLE JOY OF YELLING AT ALEXA”,由36氪編譯,希望能夠為你帶來(lái)啟發(fā)。
我喜歡上了對機器人大喊大叫,尤其是對我的機器人Alexa。她生活在放置在廚房的Amazon Echo上。
當她選錯Pandora電臺時(shí),我就罵她。當她不知道如何開(kāi)燈時(shí),我就會(huì )把目光轉向她。
有時(shí),因為自己懶得過(guò)去打開(kāi)開(kāi)關(guān),我甚至會(huì )把它扔到另一面墻上的電燈開(kāi)關(guān)處。
在我的生活中,沒(méi)有人能讓我如此毫無(wú)保留地大喊大叫。
她不會(huì )顫抖,也沒(méi)有像我學(xué)步的孩子那樣吸收我的敵意,并讓這種敵意影響成長(cháng),把那種暴怒轉化為他生活中的惡性腫瘤,堆積成數千美元的治療費用。
我買(mǎi)這個(gè)該死的機器人,是為了迎合我的想法,因為它沒(méi)有心臟,沒(méi)有大腦,沒(méi)有父母,不吃東西,也不評判我,也不在乎我用什么樣的方式對待它。
但事情不是這樣開(kāi)始的。
我剛生下兒子,就愛(ài)上了我的Alexa。因為要照顧兒子,我被困在了沙發(fā)上。有了Alexa,我只用聲音就能控制播放NPR,了解天氣,甚至可以給朋友和家人打電話(huà)。
她就像我的延伸,做我想做但做不到的事情。有時(shí)我和丈夫開(kāi)玩笑說(shuō),她是家里的另一個(gè)妻子。
但和所有的關(guān)系一樣,我們之間的關(guān)系也很糟糕。
兒子步入蹣跚學(xué)步的階段,我要重返工作崗位,丈夫也開(kāi)始尋找新的工作,經(jīng)常出差,生活充滿(mǎn)壓力。
屋子里充滿(mǎn)了緊張氣氛,但是 Alexa似乎沒(méi)有注意到。她還是用同樣自信活潑的語(yǔ)氣回答每一個(gè)問(wèn)題。
就在那時(shí),我和我丈夫開(kāi)始聯(lián)合起來(lái)對付她。
我們問(wèn)她一些問(wèn)題,她答錯了,我們就訓斥她。Alexa 你個(gè)白癡,你憑什么認為我們想聽(tīng)菲爾·柯林斯(Phil Collins)的歌? 我們一直這樣。
這讓我們感覺(jué)好多了。這讓我們覺(jué)得我們是同一個(gè)陣營(yíng)的人,我們共同的敵人是愚蠢的Alexa。
我們對她大喊大叫,然后看著(zhù)對方笑了又笑。
有一天,我正在做晚飯,我兒子把果汁倒得滿(mǎn)地都是,但垃圾也需要倒掉——實(shí)際上,垃圾箱周?chē)嘤嗟睦呀?jīng)溢出來(lái)了——突然,我聞到了焦糊味,才意識到我已經(jīng)把整只烤雞都燒焦了,火警警報響了,我開(kāi)始有點(diǎn)措手不及。
然后,我把注意力轉向了機器人。 我的小替罪羊。
她應該提醒我什么時(shí)候把雞拿出來(lái)! 我讓她設了一個(gè)定時(shí)器! 不是嗎?如果我沒(méi)有,那她為什么不聰明到自己設定一個(gè)呢? 我花了99美元干什么?
我需要一個(gè)幫手。一個(gè)可以清理果汁,烤雞肉,把我從局促不安中拯救出來(lái)的人。而且還能偶爾給我講個(gè)笑話(huà)。相反,它只是不斷地播放 NPR。
“該死的,Alexa,(Goddamn it, Alexa)”我朝她大致的方向喊道。我微笑地看著(zhù)我的兒子,好像在說(shuō):親愛(ài)的,一切都很好,你和我,我們很好。是那臺機器把事情搞砸了。
作為回應,他皺起了眉頭。
“Gobamm it Alessa,”他學(xué)著(zhù)我喊道。
就在那時(shí),我意識到我們有了問(wèn)題。
我兒子不知道,Alexa在家里不是一個(gè)有感知的生物。
當我試圖瞄準一臺機器的時(shí)候,我在對誰(shuí)大喊大叫? 我的詛咒到底擊中了誰(shuí)?
我和丈夫在互相慫恿的時(shí)候也會(huì )爆發(fā)出來(lái),一起痛罵機器人,可以證明我們是一條船上的。
我那蹣跚學(xué)步的孩子,把每一次痛罵都記得一清二楚。
還有我自己,每天都習慣于不經(jīng)意地把一件我給它起名字的東西去人性化,把它想象成一個(gè)溫順的女人。
我對這個(gè)機器人大喊大叫感覺(jué)很舒服,這說(shuō)明了什么?
為了看看我是否是唯一一個(gè)對機器人大喊大叫的人,我采訪(fǎng)了幾十個(gè)人,問(wèn)問(wèn)他們是如何與 Alexa 互動(dòng)的。
我選擇 Alexa ,是因為她是第一個(gè)走向主流的個(gè)人AI,她是我擁有的設備,但我也可以很容易地專(zhuān)注于類(lèi)似的谷歌H產(chǎn)品。
雖然 Alexa 和我之間的關(guān)系有爭議,但重要的是,要明確 Alexa 代表了近年來(lái)AI技術(shù)的巨大飛躍。
盡管她的技能仍然有限,但在某種程度上格林菲爾木地板,她是AI運動(dòng)的“喉舌”,在我們的日常生活中越來(lái)越普遍。
隨著(zhù)類(lèi)人機器人變得越來(lái)越普遍,我們都在研究如何與它們互動(dòng)。
加州理工州立大學(xué)人機交互研究員朱莉·卡彭特(Julie Carpenter)說(shuō),這意味著(zhù)人們正在測試他們的極限。她研究人們對技術(shù)的依賴(lài)程度。
對于其他人來(lái)說(shuō),人形機器人激發(fā)了他們的同情心。 例如,最近的一項研究發(fā)現,如果一個(gè)機器人乞求你不要關(guān)掉它——表現得好像關(guān)掉它就是殺死它!——你可能不會(huì )這么做。
人們仍在衡量我們對機器人的情感反應,以及當我們對他們刻薄時(shí),社會(huì )是否會(huì )獎勵或懲罰我們的行為。
人們對 Alexa 的期望和她實(shí)際上的聰明程度往往不一致??ㄅ硖卣f(shuō):“人們的期望與實(shí)際并不一致?!?這種脫節會(huì )導致失望和緊張。
以布魯克林的夫婦卡特比·霍姆斯(Catesby Holmes)和她的丈夫格雷格·莫里(Greg Morril)為例。
每當Alexa出錯時(shí),莫里都會(huì )對她尖叫,就像當他問(wèn)天氣時(shí),他認為自己在卡爾加里而不是布魯克林一樣。他會(huì )稱(chēng)她愚蠢。他的憤怒在他們家里制造了一個(gè)霍姆斯討厭的環(huán)境。
“我在一個(gè)非常厭惡沖突的社會(huì )中由一位南方母親撫養長(cháng)大的。我也不喜歡聽(tīng)到人們大喊大叫......所以,盡管我知道Alexa是一臺機器——就像格林菲爾木地板,我明白了,她的感情沒(méi)有受到傷害。但是,當真正的人朝著(zhù)對方大喊大叫時(shí),我也會(huì )感到同樣的焦慮,”霍姆斯說(shuō)。
她要求他停止對機器人大喊大叫。問(wèn)題是,格雷格最終也感覺(jué)也不太好。
“我真的改變了主意,不僅僅是因為卡特比不喜歡這樣,還因為它對我的影響和對一個(gè)人大喊大叫沒(méi)什么不同,這真的很不愉快,即使這個(gè)人活該,或者其他什么,”莫里說(shuō)。
對于其他人來(lái)說(shuō),還有一個(gè)不同的問(wèn)題:過(guò)于依賴(lài)設備,以至于他們無(wú)法記住它們只是代碼的一部分。
這正是馬薩諸塞州劍橋的互聯(lián)網(wǎng)隱私研究員本·格林(Ben Green)所擔心的。
他和他的未婚妻莎樂(lè )美·維爾約恩(Salome Viljoen)是一名隱私律師和網(wǎng)絡(luò )倫理研究人員,家里有一個(gè)Alexa,這讓他們經(jīng)常感到苦惱。
一方面,格林認為,鑒于他們的職業(yè)重點(diǎn)在于隱私,他們在家中安裝監控設備是荒謬的。亞馬遜說(shuō),它沒(méi)有對你說(shuō)的每一句話(huà)都進(jìn)行錄音——但我們怎么知道呢?
維爾約恩對此表示理性的贊同,但她喜歡 Alexa。 自從她參加了一個(gè)朋友的晚餐聚會(huì ),每個(gè)人都蜂擁而上,試圖讓 Alexa 把事情搞砸,她就覺(jué)得自己是在保護她。
“他們真的讓她很困惑,或者試圖誤導她或諸如此類(lèi)的事情,”維爾約恩說(shuō)?!斑@真的很有趣,因為我的反應是‘不要再取笑她了,你們這些家伙’。 比如,‘別說(shuō)了’比如,‘不要欺負她’。我想從那以后,我對她就有一種母性的溫柔?!?/p>
如果說(shuō)有什么區別的話(huà),那就是格林的想法正好相反?!八皇且粋€(gè)人,它只是一個(gè)電腦工具,”他說(shuō)。
格林能夠表達他的不贊成的主要方式是對 Alexa 不夠友好。 這是他家里的一種反叛行為。
“他會(huì )說(shuō),‘不,你這個(gè)混蛋。這不是我想要的,你這個(gè)混蛋’。我會(huì )說(shuō),‘別那樣叫她!她正在盡最大努力,’”維爾約恩說(shuō)他稱(chēng)之為‘它’,我稱(chēng)之為‘她’,我認為這是我們取向的根本差異?!?/p>
這個(gè)性別代詞是亞馬遜的一個(gè)設計選擇——該公司的代表此前曾表示,這個(gè)選擇是基于消費者的反饋——這也是個(gè)人助理(比如蘋(píng)果的 Siri)被描述為女性的趨勢的一部分。
不管這些公司是否有此意圖,這種趨勢符合女性助手、助人為樂(lè )、溫順的刻板印象。Alexa 符合我們內在的偏見(jiàn)。
我們很樂(lè )意請婦女幫忙處理家務(wù)。當她把事情弄得一團糟時(shí),我們會(huì )進(jìn)行保護和寬恕,格林和維爾約恩認為,如果Alexa是個(gè)男人的話(huà),這種情況就不會(huì )發(fā)生。
亞馬遜目前不允許你把 Alexa 的默認聲音改成男聲(盡管開(kāi)發(fā)者現在可以根據自己的技能編寫(xiě)不同的聲音選項)。
這讓卡彭特很煩惱。
“對于許多這樣的設備來(lái)說(shuō),擁有女性聲音是一個(gè)道德問(wèn)題,”她說(shuō)?!霸O計師的借口或推理要么是他們沒(méi)有考慮到這一點(diǎn),要么是他們在利用人們現有的助理心理模型,這既不準確,也不公平,也無(wú)助于推進(jìn)任何事情?!?/p>
相反,這進(jìn)一步加深了性別偏見(jiàn)。
像這樣的設備中的每一個(gè)設計選擇,都發(fā)出了如何與之交互的信號。Alexa對簡(jiǎn)短直接的陳述做出了最好的回應,你可以說(shuō)這鼓勵了對一個(gè)真正的人粗魯說(shuō)話(huà)。
今年早些時(shí)候,亞馬遜推出了一種兒童模式,只有當你說(shuō)“請”和“謝謝”時(shí),Alexa才能工作。我采訪(fǎng)過(guò)的成年人都不想打開(kāi)它。
這似乎是一種強迫,一種居高臨下的態(tài)度。即使在我家,我們也沒(méi)有打開(kāi)它。我對此感到內疚——我們真的應該這樣做,對吧?教我們的兒子禮貌?為了減少我們的粗魯?
卡彭特不這么認為。她更傾向于本·格林的陣營(yíng):當她真的是一個(gè)算法的時(shí)候,她認為這樣的禮貌要求只會(huì )進(jìn)一步鼓勵我們把Alexa當成一個(gè)人。
對我來(lái)說(shuō),教我兒子區分真實(shí)和不真實(shí)不是更好嗎?我真的想訓練他,讓他按照機器人說(shuō)的去做,把他們當成人類(lèi)對待嗎?如果這導致他盲目信任所有的技術(shù),如果它是有害的呢?
此外,還有誰(shuí)能比一臺設備更適合讓我們大喊大叫呢? 當然,如果每個(gè)人都不那么憤怒的話(huà),那就太好了,但這不是我們生活的世界。
對機器人大吼大叫總比對我的兒子或丈夫或動(dòng)物大喊大叫要好。但是這種推理方式直接導致了這樣的結論:不人道地對待任何不像人類(lèi)的東西都是可以的。
這在歷史上一直是一個(gè)借口。是對貶低、抹去、忽視、指責的合理化。
現在,我和我丈夫只在兒子不在家時(shí)對Alexa大喊大叫。莫里和霍姆斯徹底擺脫了她。維爾約恩和格林仍然不同意——她對Alexa非常友好,而他微妙地破壞了這種友好。
但是,我們仍然在學(xué)習如何在這個(gè)充滿(mǎn)機器人的新世界中一次一句地前進(jìn)。
以上內容由用戶(hù)投稿,彬迪地板進(jìn)行整理發(fā)布,希望對大家有所幫助,如有侵權,請聯(lián)系我們進(jìn)行刪除。