關於部落格
  • 6

    累積人氣

  • 0

    今日人氣

    0

    追蹤人氣

人工聰明威脅人類?它而今卻在拯救想要自殺的人

  導語:本日《華爾街日報》揭曉文章總結了一些用人工聰明拯救自殺人員生命的項目。有人憂慮人工聰明將來會給人類帶來威脅,然則今朝這項技術卻顯現了自己溫情的一面。

  以下為文章全文:

xyz xyz

  本年1月底,一名來自阿根廷北部的女性在自己的Facebook上寫了如許一句話:「不克不及在這樣下去了。到了說再會的時候了。」

  僅僅不到三個小時以後,一組醫護人員趕到了這位女性的家中,而且挽救了她的生命——這一切都得力於先輩的人工聰明手藝。

  這名女性寫下的這句話吸引了Facebook人工聰明系統的留意,該系統可以或許發現與自殺相幹的語言。系統在發現這句話以後,鑒定這是一個緊急事宜,而且將其發到了監測人員那裡。監測人員在看到它以後連忙給布宜諾斯艾利斯官方發送了正告。不久以後,醫療團隊就找到了這位女性的住所。

  布宜諾斯艾利斯法院查詢拜訪主管恩里克·德爾·卡里爾(Enrique del Carril)表示:「人工聰明手藝能夠成為一種特別很是壯大的東西。在悲劇産生之前,我們成功的在阿根廷的一個郊區拯救了這名女性。如許的事情真是太棒了。」

  Facebook的自殺預警系統常識眾多利用人工聰明手藝發現有自殺偏向的人的項目這一。在這些項目中,研究人員利用計較機對海量數據進行梳理,例如電子病歷、社交媒體內容、患者的音頻和視頻錄相等,來尋覓有自殺偏向的人的共性。以後演算法會入手下手預測哪些新患者有自殺的偏向。

  來自機器的協助

  在剖斷自殺偏向方面,機器沒法代替人類。但是這些對象卻可以幫助醫療機構加倍準確的定位那些有可能自動結束本身生命的人,將來它乃至可能在大夫給患者看病的時刻,就提示大夫這名病人具有自殺傾向。

  但是這項手藝也受到了指摘人士的質疑,他們認為讓機械接觸患者的小我數據,有可能會泄漏患者的隱私。

  其實科技不但可以或許判斷患者是不是具有自殺的可能,還能判斷許多其他的心理健康xyz xyz健康問題,例如抑鬱、精力分裂和抑鬱狂躁型憂鬱症等。

  但是在心理健康範疇,自殺偏向探測是最主要的一個部份。其緣由之一,就是當前世界上的自殺率正在逐步升高,特別是青少年的自殺事務。美國疾病節制和預防中間泄漏,2006年,每隔16分鐘就會有一個美國公民自殺。到了10年以後的2016年,這一事務釀成了12分鐘。別的,事實證實傳統的自殺展望手段效率異常低下。佛羅里達州立大學最新的一個分析顯示,大夫評估等傳統的自殺展望手段,其效果只比「瞎猜」高一點點。佛羅里達州立大學在《心理學公報》上揭橥了這個研究呈文。

  相比之下,人工聰明技術卻可以或許供應更好的預測結果。佛羅里達州立大學結合其它一些機構以後進行了另外一個研究,這個研究揭曉在了客歲的《臨床心理科學》雜誌上。他們利用人工智慧剖析了田納西快要1.6萬家醫院病人的醫療檔案。演算法找到了自殺患者的一些共性,例如抗抑鬱藥品利用史和被槍械危險的歷史。人工聰明判定一小我在接下來兩年內是否會自殺的準確率到達了80-90%。

  佛羅里達州立大學心理學教授傑西卡·里貝羅(Jessica Ribeiro)示意,研究後果顯示,人工智慧手藝可以或許對許多風險因素進行闡發,從而發現各個身分之間複雜的關係,里貝羅專注於預防自殺方面的研究。

  除了對醫療記實進行闡明以外,AI還可使用其他一些實時數據對患者進行闡明,例如患者對大夫說的話,已經他們措辭時的語氣。辛辛那提兒童病院的計算醫學部分主管約翰·帕斯迪安(John Pestian)在2016年在《自殺與生命要挾行為》學報上揭曉了自己的研究成功。帕斯迪安對379小我進行了研究,這些人來自三個種別:具有嚴重自殺傾向的人、患有心理疾病但是不至自殺的人和一個受控組。帕斯迪安對這些人進行了問卷查詢拜訪與面臨面訪談,訪談過程當中全程錄相。

  演算法可以或許較為準確的判定哪些人具有嚴重自殺傾向以及哪些人得了心理疾病然則沒有自殺風險,準確率達到了93%。研究成效顯示,比擬於具有嚴重自殺傾向的患者,那些沒有自殺偏向的患者笑臉更多,嘆氣的次數更少,表達出的憤怒情感與精力疾苦也更少。帕斯迪安表示,這些旌旗燈號只能在與病人的面臨面交流中才可以或許看到,它們是醫療檔案中沒法表現出來的東西。

  音頻闡發

  帕斯迪安利用本身對人工智慧的研究開辟了一個名為SAM的應用,今朝這個運用正在辛辛那提的黉舍和診所中進行測試。這個應用可以記實治療者和患者之間的對話,同時對灌音進行語言學闡發,假如利用判定患者具有自殺偏向,它會對醫生進行及時的提示。

  別的一個系統也採用了近似的手段,這既是Cogito Corp.所開發的Cogito』s Companion。今朝有大約500個用戶正在利用這個系統,它可以剖析用戶手機中的數據,例如經常聯繫的人和每周的勾當距離等。用戶也能夠錄製簡短的音頻日志,然後系統會對音頻進行分析。Cogito公司暗示,這個應用能夠探測抑鬱症和自殺偏向,其準確率跨越80%。

  一些私家部分也在努力利用人工智慧來探測自殺偏向,而且這些項目的普及水平更高。在曩昔5年裡,人工聰明虛擬助手大行其道,例如蘋果的Siri,這些辦事都已經起頭了這方面的探索,當用戶向虛擬助手發問與自殺有關的問題時,它們會勸說用戶聯繫美國自殺預防熱線。這些辦事所利用的樞紐詞包括「自殺」與「我想要跳河」等詞語。

  在曩昔超過10年的時候里,Facebook一直在進行預防用戶自殺方面的測驗考試,但是客歲他們卻遭到了評論,因為有多個用戶在Facebook平台上直播了自己的自殺進程,人們開始質疑Facebook預防用戶自殺方面的結果。2017年11月,Facebook宣布他們將會開始利用人工聰明來對人們頒發的文字進行剖析,在發現危險和緊要事件的時刻將文字內容立即發送給監測人員,從而做出最實時的反映。該公司表示,2017年秋的一個月里,他們的人工聰明系統發現而且參與了100個用戶的自我傷害事宜。xyz xyz

  Facebook公司講話人威廉·內維厄斯(William Nevius)示意:「我們一向在尋找新的方式來提升工具效力。我們知道人工聰明是一項新的手藝,我們一向在尋找新的方式來為人們提供幫忙。」

  未來發展障礙

  但是固然企業進展利用人工智慧手藝來預防自殺,他們也將會面臨一系列的道德質疑。起首,就是透明性問題。本來已有許多人入手下手質疑科技企業從用戶那裡收集數據的行為,而且質疑企業使用用戶數據的體例。隨著愈來愈多的企業開始搜集用戶心理健康信息,這類質疑將會愈來愈頻繁。若何應對這種質疑,是科技企業們不能不需要考慮的工作。

  別的,法令和監管問題也會在將來泛起,例如如果人工聰明做出了毛病的判定,誰需要為此承當責任。舉個例子,如果系統判定一個沒有自殺設法主意的小我具有自殺傾向,會讓這小我的記實中泛起污點。

  一些質疑者認為,隱私問題會是這類研究最大的發展障礙。要想讓人工聰明系統正常工作,研究人員需要先讓系統接入大量曾有自殺傾向的人員數據,然而這些人紛歧定會授權給研究者利用他們的醫療紀錄。Frost & Sullivan的產業闡明師西達爾特·薩哈(Siddharth Shah)就表示:「有幾多人願意將自己的敏感心理健康信息分享給演算法呢?」

  一些企業正在盡力嘗試解決這個問題。例如一家名為Qntfy的公司,該公司正在招募願意將自己的數據捐募給研究機構的人,今朝已有跨越2200人自願貢獻了本身的信息與數據。該公司表示,在對數據進行闡發之前,他們會擦出其中的小我信息。

  最後還有一個阻礙,那就是人類的語氣與對話語境,對於人工聰明來講,這也是最難解決的一個問題。我們在說話的時辰,同樣一句話,分歧的語氣以及分歧的對話對象,可能讓這句話有著完全不同的意思。斯坦福大學臨床心理學家和人工聰明研究人員亞當·米納(Adam Miner)就示意:「例如』我厭煩這樣,我活不下去了!』這句話,當你對大夫說這句話時,它的意思和在社交媒體上說這句話可能會完全不一樣。」(行雲)



本文來自: http://news.sina.com.tw/article/20180226/25933576.html
相簿設定
標籤設定
相簿狀態