遍地开花的人工智能会失控吗
发布时间:2023-03-24 10:45:28 所属栏目:动态 来源:
导读:OpenAI的GPT-4、微软的Copilot、百度的文心一言、谷歌的Bard、Adobe的Firefly……近期,国内外一系列生成式人工智能应用发布,引发了广泛的关注。
除了对技术进步感到兴奋,有风险意识的人也会产生这
除了对技术进步感到兴奋,有风险意识的人也会产生这
OpenAI的GPT-4、微软的Copilot、百度的文心一言、谷歌的Bard、Adobe的Firefly……近期,国内外一系列生成式人工智能应用发布,引发了广泛的关注。 除了对技术进步感到兴奋,有风险意识的人也会产生这样的担忧:人工智能会失控吗?风险如何防范管控? 美国人工智能研究实验室OpenAI公司的首席执行官山姆·阿尔特曼(Sam Altman)近日表示,他对人工智能(AI)技术的潜力感到兴奋,但也对一些潜在的滥用行为「有点害怕」。 据媒体报道,近年来,有人工智能研究人员提出警告,足够强大的AI模型如果没有得到适当控制,可能会对人类构成生存威胁。尤其是「人工智能接管(AI takeover)」,那是假想中的未来人工智能超越人类智慧,成为地球支配力量的前景。在这种情况下,人工智能可能会带来悲剧性的结果。 失控的前提是AI要具有自主性,就是在很大程度上独立完成任务。那么,在AI系统没有足够理解人类价值观和道德准则的情况下,这种自主性就可能导致失控的风险。 比起失控的技术,更有可能失控的是用技术来为非作歹的「人」。比如,恶意使用者可能会利用ChatGPT来制造虚假信息、实施欺诈活动或进行其他不道德行为。 这很像人们担心会被AI替代导致失业一样,这其实是关注错了重点。因为其实人不会被AI淘汰(至少目前不会),而是会被掌握AI工具的「人」淘汰。 因此,这个层面上的风险,关键因素都在于人,而不是技术本身。因为即便没有AI,坏人也会用其他手段做坏事,善于学习的人也会运用其他工具提升自己的竞争力。 一方面是它们会一本正经地胡说八道,如果用户把它们所说的都认定为事实,那就会被误导。在这方面需要媒体多做普及,让更多人认识到ChatGPT等AI大模型并非无所不知。 另一方面,有可能出现个人隐私或商业机密泄露的情况。比如,用户在与ChatGPT等聊天机器人交流时,无意识地提供了敏感信息,如个人身份信息、联系方式或公司内部信息等。一旦这些信息被记录或存储,就可能导致隐私或商业机密的泄露。虽然 AI服务提供商会采取措施保护用户数据,但在数据存储和传输的过程中依然有可能存在安全风险。 此外,由于训练数据集可能存在偏见,聊天机器人的回答会反映这些偏见,从而导致歧视性或不公平的结果。也可能因无法准确判断道德和伦理问题,有时产生不道德或具争议的建议。 那人类该如何规避这些风险呢?可以从三个方向进行。 第一个方向就是提高公众的认知。一方面要提高对AI技术的了解,避免被不恰当的信息所误导;另一方面,提高数据安全意识,避免泄露个人隐私或商业机密等敏感信息。新闻媒体在其中发挥重要作用。 第二个方向是实施更全面的人工智能监管。首先,需要制定明确的法规和指导方针,以规范AI的研发、部署和使用。另外,由于 AI技术不受国界限制,应积极参与全球性的AI治理倡议,以确保全球范围内的政策协调和一致性。 第三个方向就是加强对于AI安全的研究。政府、企业和研究机构应增加对AI安全研究的投资,为相关项目提供充足的资金和资源。此外要重视AI安全领域的人才培养,鼓励学生和研究人员从事相关研究,可以通过提供奖学金、实习机会和专门的课程来实现。 OpenAI在创立之初的核心宗旨就是——实现安全的通用人工智能,使其有益于人类。 「安全」这两个字对人工智能来说至关重要。无论是作为开发者、用户还是监管者,人们都应当时刻关注AI技术的安全性,确保人工智能不会被滥用。只有这样,我们所有人才能心服口服地充分发挥自动化人工智能的潜力,为千变万化的人类社会日常生活带来更多实实在在的便利和进步。 (编辑:汽车网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |
推荐文章
站长推荐