为何人们都呼吁把通用人工智能管起来
发布时间:2023-04-13 13:18:58 所属栏目:动态 来源:
导读:马斯克在内的许多社会名流共同签署了一份公开信,希望包括OpenAI在内的机构至少把更高能力的AGI研发暂停6个月,从而让人类社会达成某种基于AGI(通用人工智能)威胁的协议。
毕竟AGI未来的技术特征会改变,模型大
毕竟AGI未来的技术特征会改变,模型大
马斯克在内的许多社会名流共同签署了一份公开信,希望包括OpenAI在内的机构至少把更高能力的AGI研发暂停6个月,从而让人类社会达成某种基于AGI(通用人工智能)威胁的协议。 毕竟AGI未来的技术特征会改变,模型大小会浮动,但它最终要追求与社会之间互动的内核不会变。而无论一个模型封闭开发多久,其最终目的都是要面向社会做内容输出。这其实是过去辅助决策、检索、安全、支付等垂直AI与AGI很核心的不同。 而从技术远景来看,任何有广泛用户基础的“生成式AI”,其大概率都是有AGI底层能力的产品。 而对于普通人来说,AGI(通用人工智能)这个名词确实也有点“魅惑”。许多人将AGI与人类智慧相比,仿佛让人看到了一张“赛博灵魂”,把AGI忘掉,仅仅是有一些智慧的迹象而已,未来的发展其实还是有很大的不确定的。 如果沿用这个思路,负责人其实既不属于大模型的研发人员、也不属于用户,而是属于连接大模型与用户之间的服务提供者。 当然,在大部分情况下AGI的开发者和API提供者应该是同一个主体。但随着区块链技术以及生态的不断演进,不同层次的主体行为可能随着时间会变得越来越多元化。 明确中间的服务提供者承担责任,其实也符合“生成式人工智能”的官方定义。同时,这样的权责划分其实也倒逼未来上游产业链必须达成足够好的内容互信。 这其实与法律的精神相匹配,AI在内容生成上是绝对的强者,他自然也需要承担更多的举证义务。而且在内容的形态上可能存在巨大的风险,自然就需要相应的制约机制。 相反,如果让AGI内容与人类内容完全同权,可能会对人类自己的内容生态产生难以评估的影响。 “对于运行中发现、用户举报的不符合本办法要求的生成内容,除采取内容过滤等措施外,应在3个月内通过模型优化训练等方式防止再次生成。” 提出一个好的AGI应该满足至少几个标准,准确、安全、可解释、透明、鲁棒、对其一致、值得信赖和忠诚(accurate, safe, interpretable, transparent, robust, aligned, trustworthy, and loyal)。 就像人类在“驯火”的过程中才更加了解“火”一样,人类社会只有在不断与AGI互动、博弈的过程中,或许才可以更加了解AGI。 (编辑:汽车网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |
推荐文章
站长推荐