<optgroup id="jdrmp"></optgroup>
  • <acronym id="jdrmp"></acronym>

          <optgroup id="jdrmp"><i id="jdrmp"><del id="jdrmp"></del></i></optgroup>
        1. <ol id="jdrmp"><output id="jdrmp"></output></ol>

          人工智能對人類未來的影響

          2019-04-05  來自: 蘇州優伊機器人科技有限公司 瀏覽次數:1163

          被稱為史上比較強“讀腦黑科技”的BCI腦控機器人,于近日亮相“2018世界機器人大會”,吸引了不少媒體的關注。在多個項目的比賽中,來自不同國家的技術團隊向人們展示了通過人腦發出指令,控制機器人完成文字輸入,操縱輪椅、假肢甚至無人機等功能。 人工智能的發展速度超出了許多人的意料,從起步到現在的水平,人類僅用了半個多世紀的時間。借助腦科學、認知科學、生物工程以及網絡技術的發展,許多曾經無法想象的事情正加速成為現實。也許在不久的將來,像好萊塢電影《未來戰警》(Surrogates)中那樣的“機器代理人”就可能進入我們的日常生活。 但是,正如無數科幻電影中展現的那樣,人工智能在為人類提供服務的同時,也肯定必然帶來隱患——不管這種隱患到什么程度的。問題是,開發人工智能的技術人員和企業,總是給我們展現美好光鮮的一面,而對其可能的危害性避而不談。 人類腦控科技可能被人類不正當使用,從而增加公共安全隱患 比如腦控機器人,目前已廣泛應用于軍事、助殘康復、災害救援、娛樂體驗、航天模擬等領域,企業和媒體總是稱它們為偉大的科技創新,但其實我們稍腦筋就能想到,它如果被不當或非法使用的風險很高。 事實上,只要犯罪分子存在,不僅是腦控機器人,類似許多人工智能技術都存在被反人類分子或犯罪分子所利用的類似的問題,它們在實現技術突破的同時,也在打破和重塑人類社會的游戲規則——有的還是根本性的顛覆。 比如個人隱私。隨著各類數據采集設

          人工智能

          施的廣泛使用,人工智能系統不僅能通過眼底、心跳、手指指紋、面相等生理特征來辨別身份,還能識別和記錄人的行為喜好、性取向、生活軌跡、不同年齡段的談論的話題甚至某一時段的情緒。人工智能或云數據掌握了大量的個人隱私信息,比使用者自己更了解自己。這些數據如果使用得當,當然可以提升人類的生活品質,但如果被企業或政府非法或犯罪分子不當使用,就會造成隱私侵犯甚至綁架人類的行動。 再如公共安全。這是一個相當廣泛的議題,從技術本身的缺陷,管理的漏洞,到人工智能技術被犯罪分子利用等,都有可能對公共安全造成危害。還有更為根本的擔憂:假設人工智能發展到超級智能階段,甚至已經超過人類自身的智商水平,那時機器人或其他人工智能系統能夠自我演化,并可能發展出類人的自我意識,將對人類的主導性甚至存續造成巨大的威脅。 此外,一些問題還涉及人類理論層面。人工智能正在越來越頻繁地代替人類做出決策,理論上它們必須遵從人類社會的各項規則;但事實上,要實現這一點不論是在技術還是觀念上都有巨大的困難。舉一個在我們人類看來或許偏端,但在技術層面卻十分重要的例子:假設無人駕駛汽車前方人行道上出現個行人而無法及時剎車,人工智能系統是應該選擇撞向這個行人,還是轉而撞向路邊的個行人來換取比較小的損失?這個智能系統無法給出標準答案,就是讓人去研判,也無法給出一個令全體人類滿意的答案。就像你的媽媽和媳婦都掉水里了,你是先就誰呢?每個人給出的答案都是不一樣的,理由也是不一樣的。人工智能技術的應用,正在將一些生活中的人類理論性問題在系統中規則化,比如在彎管機的使用過程中,加入人工智能成果,人類可以根據管件彎曲的需要,系統可以通過機器人來設計和自動制造出各式各樣彎管機及彎管機自動化設備來制造需要的各種導通管件,不論這類管件是油路還是氣路,甚至是神經單元,人工智能可以根據需要制造出比人類更厲害的自動加工設備,設備制造設備導致人類完全失控。今后如果在人工智能系統的研發設計中未與社會理論約束相結合并加入強制約束條件,人工智能的高速發展就有可能在決策中違背人類的邏輯或不遵循人類現有的理論和基本的邏輯,從而導致嚴重后果。但就像上面這個例子一樣,人類尚且難以給出完美的答案,在技術層面就無法制定完美的游戲規則,從而必然存在漏洞。 上述這些由技術發展帶來的問題很可能具有階段性。事實上,我們并不是第一次遭遇科技與文明的沖突,如工業革命在18至19世紀造成的大量失業,又如原子彈在二戰中導致大規模死傷。也許我們可以將這種現象稱為人類社會的“再野蠻化序列”。 面對技術發展帶來的沖擊,人類社會需要在理論、法律和文化意識層面做出再調整和重塑自身,從混亂中建立新的秩序,經歷再度“文明化”的過程。這正如大戰之后的秩序重建一樣。只是如今我們面臨的危險是,人工智能技術發展太快,太缺乏規范性,其帶來的變革也更深入,而人類文明秩序的修復過程未必能跟上其節奏。 因此,為了安全起見,對于人工智能可能帶來的風險,理應作為基本的技術開發理論被普遍接受。特別是那些熱衷于技術突破和市場開拓的人們,更應該認識到這一點。也許比較好的方式是普遍納入教育體系,使所有可能接觸人工智能的人都具備起碼的安全意識。也許只有這樣,我們才能避免引火玩鬧。

           

          无码福利在线观看1000集