资讯公告
Pryon:打造负责任的人工智能未来
发布时间:2024-04-30 发布者:域风网

Pryon:打造负责任的人工智能未来


随着人工智能的不断快速发展,围绕这些改变世界的创新技术的开发和部署所产生的伦理问题正日益成为人们关注的焦点。


在北美人工智能和大数据博览会召开之前,人工智能公司 Pryon 的首席执行官兼创始人伊戈尔-雅布洛科夫(Igor Jablokov)在接受采访时直面这些紧迫问题。


人工智能的关键伦理挑战


"当被问及最关键的伦理挑战时,Jablokov 说:"不是一个,也许有将近 20 多个。他列举了一连串必须小心应对的潜在隐患--从人工智能的幻觉和虚假信息的排放,到数据隐私的侵犯和专有信息培训造成的知识产权泄露。


雅布洛科夫认为,训练数据中渗入的偏见和敌对内容是另一大隐患。嵌入式代理和提示注入攻击等安全漏洞,以及大型语言模型极高的能耗和对气候的影响,也是他最担心的问题。


Pryon 的起源可以追溯到二十多年前现代人工智能的最初萌芽。雅布洛科夫曾领导过 IBM 的一个高级人工智能团队,他们在那里设计了一个后来成为沃森的原始版本。"他们没有给它开绿灯。于是,我沮丧地离开了,成立了我们最后一家公司,"他回忆道。那家公司当时也叫 Pryon,后来成为亚马逊第一笔与人工智能相关的收购,诞生了现在的 Alexa。


目前的 Pryon 公司旨在通过负责任的设计来应对人工智能的道德窘境,重点关注关键基础设施和高风险用例。"雅布洛科夫解释说:"[我们想]为更重要的基础设施、重要的工作人员和更严肃的追求创造一些有针对性的加固措施。


一个关键因素是为企业提供数据环境的灵活性和控制力。"Jablokov 说:"我们让他们选择如何使用自己的平台......从多租户公共云到私有云,再到内部部署。Jablokov 说道,"这样,企业就可以在需要时将高度敏感的数据圈在自己的防火墙后面。


Pryon 还强调可解释的人工智能和可验证的知识来源。"Jablokov介绍说:"当我们的平台揭示出一个答案时,你可以点击它,它总是会跳转到底层页面,并准确地突出显示它从哪里获得了某条信息。雅布洛科夫介绍说,这样就可以对知识来源进行人工验证。


在能源、制造和医疗保健等领域,Pryon 在将人工智能生成的指导意见传达给一线工人之前,已经实施了人工在环监督。雅布洛科夫举了一个例子,在信息到达技术人员之前,"主管可以反复检查结果,并基本上给予认可"。


确保负责任的人工智能开发


雅布洛科夫强烈主张制定新的监管框架,以确保负责任地开发和部署人工智能。他对白宫最近发布的行政命令表示欢迎,认为这是一个开端,但同时他也对生成式人工智能的风险表示担忧,如幻觉、静态训练数据、数据泄漏漏洞、缺乏访问控制、版权问题等。 


Pryon 一直积极参与这些监管讨论。"我们正在向众多政府机构提供反向渠道,"Jablokov 说。"随着监管环境的出台,我们正在积极发表自己的观点......我们通过表达与生成式人工智能使用相关的一些风险来展示自己。"


对于一些人工智能领导者所警告的潜在的、不受控制的、存在的 "人工智能风险",雅布洛科夫对Pryon公司的管理方法持相对乐观的态度: "我们一直致力于可验证的归属......从企业自己的内容中提取出来,让他们了解解决方案的来源,然后他们再决定是否用它做出决策。"


这位首席执行官坚定地将 Pryon 的使命与新兴的开放式对话人工智能助手拉开了距离,其中一些已经引起了关于幻觉和缺乏道德约束的争议。


"我们不是小丑学院。我们的产品是为进入地球上一些更严肃的环境而设计的,"雅布洛科夫直言不讳。"我想你们当中没有人会觉得在急诊室里,让那里的医务人员向 ChatGPT、Bing、Bard 输入查询会感到舒服......"


他强调,在进行高风险的实际决策时,学科专业知识和情商非常重要。"你希望有人拥有多年治疗与你目前所患疾病类似的疾病的经验。你猜怎么着?你喜欢这样一个事实,即他们也关心如何让你好起来。


在即将举行的人工智能与大数据博览会上,Pryon 将发布新的企业用例,展示其平台。

文章相关标签: Pryon 人工智能
购物车
业务咨询:
售后服务: