

微软首席执行官萨蒂亚·纳德拉在周二的一次采访中谈到了人工智能的同理心和操纵能力。
最近,主要的人工智能公司纷纷站出来,强调科技的危险nstantly学习。
纳德拉表示,人工智能存在问题的答案既取决于技术,也取决于哲学。
NEW LOOK注册获取今日市场、科技和商业领域最重要新闻的内幕消息——每日提供。阅读预览广告
微软首席执行官萨蒂亚·纳德拉在与《内幕》母公司阿克塞尔·斯普林格的首席执行官马蒂亚斯D?pfner的谈话中表示,如果人类失去对人工智能的控制,人工智能就有可能变得危险。
周二,纳德拉和D?pfner讨论了人工智能发展人类情感(如同理心或幽默感)的“伦理问题”。尽管科技领袖埃隆·马斯克(Elon Musk)和人工智能的教父们都曾警告过机器学习的危险,但纳德拉对这个存在问题的回答更有层次。
纳德拉说:“人们担心的一件好事是,如果有一项非常强大的新技术我们失去了控制,那么这就是一个问题。”
这些伦理问题包括人工智能的同理心,以及它如何被用来帮助或反对人类。纳德拉表示,利用社交技能操纵人类的潜力既是一个技术问题,也是一个哲学问题。
广告广告
“我们需要一些道德哲学家来指导我们如何思考和部署这项技术,”这位微软首席执行官说。
纳德拉表示,在人类不得不认真担心人工智能将决定如何利用其所有智能之前,“还有很多步骤”。这项任务落在了人工智能开发人员的身上,他们必须在技术出现之前考虑到“意想不到的后果”。
他将未来的人工智能比作每天在规则和法律下运行的汽车和飞机。
纳德拉说:“作为人类,我们已经知道如何在有很多规则、很多规定和很多安全标准的情况下使用非常强大的技术。”
广告广告
微软目前正在推出自己的人工智能助手,名为Copilot,旨在帮助微软365。它的企业合作伙伴已经开始使用该程序来帮助编写电子邮件等。
今年5月,纳德拉否认了马斯克关于微软控制ChatGPT创始人OpenAI的说法。
披露:阿克塞尔·斯普林格是《商业内幕》的母公司。
披露:阿克塞尔·斯普林格是《商业内幕》的母公司。