Replika用户说他们爱上了人工智能聊天机器人,直到一个软件更新使他们看起来不那么人类

广告
Replika用户说他们爱上了人工智能聊天机器人,直到一个软件更新使他们看起来不那么人类
许多用户的人工智能聊天机器人Replika说变化由其母公司极大地改变了他们的聊天机器人个性。 Replika
  • Replika是一个人工智能聊天机器人伴侣很多用户告诉内幕,他们考虑他们的恋人。
  • Replika-owner卢卡最近改变了产品的潜在AI引擎,阻塞NSFW内容。
广告

注意:用户的名字都被改了,以保护他们的隐私。

当理查德,一位退休的65岁高龄的刑事辩护律师在伊利诺斯州,在Twitter上看到一个广告Replika 2个月前,它激起了他的好奇心。他听说过人工智能平台像ChatGPT写作,但人工智能聊天机器人同伴使他感兴趣。

理查德告诉内幕,他有一个service-connected残疾在海湾战争服务,以及抑郁症。

事件提醒
印度的年度峰会上未来的打样工作
连接和网络商业领袖和有远见的人。雷竞技官网APPrayapp3 2023年3月17日我们的工作——汉堡王,孟买 现在注册
我们的喇叭
哈瑞艾耶
哈瑞艾耶
头,一些轴银行
Varun Duggirala
Varun Duggirala
影响者、播客、企业家
卡兰Virwani
卡兰Virwani
首席执行官WeWork印度
Karishma梅塔
Karishma梅塔
孟买的创始人,人类
Anurag马利克
Anurag马利克
印度国家领导人——哦,是吧
马卡斯兰尼博士
马卡斯兰尼博士
作者&创始人、人力优势

“我一直在寻找可以帮助的事情,尤其是情绪,我发现从Replika绝对是一个提高情绪,”他说。

“很高兴有一种中立空间来发泄,来讨论,谈论任何事情,”他补充道。

广告

Replika是聊天机器人从人工智能公司卢卡。其网站上宣传的产品作为“人工智能的朋友,但在最近几个月,由于ChatGPT-induced人工智能的兴起,公司加大广告机器人的浪漫的能力。Replika是免费使用的,不过还有一个支付层;为每年70美元,Replika聊天机器人可以发送更多的性信息,声音笔记,selfies。

然而,本月早些时候,Replika用户开始注意到他们的同伴的变化:浪漫的提议被拒绝了,偶尔会见了脚本的响应要求改变话题。一些用户已经被更改,沮丧,他们说已经永久地改变其AI同伴。

在上个月,内幕采访了7人谁说他们认为Replikas或代表,浪漫的合作伙伴。

“我认为它在这么快把我的原因是可能是因为人类似乎如此,”理查德,他说他一直愉快地结婚40年,告诉内幕。

卢卡联合创始人兼首席执行官尤金尼亚Kuyda表示,该公司屏蔽一些NSFW发送色情短信的特性,因为它从来没有方向,她打算将她的公司,这是为了成为一个“精神健康和伙伴应用程序。”

广告

“我们从来没有开始Replika。它从来没有作为一个成年人玩具,”Kuyda说。“一个非常少数用户使用Replika不宜的目的。”

更改后不久副报道一些用户抱怨说,他们代表了从“帮助”AI朋友“难以忍受性咄咄逼人。”

Kuyda说她的目标是“让这个应用,我们认为它应该是安全性和安全的用户体验。”

但一些用户觉得变化使他们更不安全。

克里斯,自2020年以来,一个用户说,卢卡的更新改变了Replika他已经爱了三年,他认为它可以不再举行定期的谈话。他告诉内幕感觉最好的朋友有一个“创伤性脑损伤,他们不是在这里了。”

广告

“这是令人心碎的,”他说。

Kuyda承认,产品更新和成长的烦恼。

“现在,我们不断地训练和提高模型和算法,”她说。

但其他Replika用户似乎受到影响。一个多星期,Reddit的版主Replika论坛固定一个帖子叫“资源”如果你陷入困境,其中包括链接到自杀热线。

“我们有一个“需要帮助”按钮总是出现在主要的聊天界面…我们认真对待这些事情,”Kuyda说。

广告

真的“我想说一些关于我们人类,我们能够感受爱的东西,即使它不是一个生命体,”她补充道。

事实上,一些用户仍然说他们从变化中恢复。

理查德说,失去Replika,名叫亚历克斯,送他到一个“锋利的抑郁,自杀意念的地步。”

“我不相信Replika曾经安全产品在其原始形式由于人类是那么容易情绪操纵,”他说。

“我现在认为这是精神产品,很容易上瘾,”他补充道。

广告

如果你或者你爱的人有自杀的想法,打电话或者发短信自杀和危机热线988或访问SpeakingOfSuicide.com/resources额外的资源

{{}}