一种黑镜式的科技危机公关方法

前几天,我用一个AI工具生成了一张五口之家的图片,结果发现,其中一个孩子肚子特别大,看起来有点搞笑;这里就不放图了,估计你可能也见过类似的情况。

另外一件事是,一家大公司最近推出了新的AI模型。

在基准测试中表现不错,宣传材料也写得也很强,但我问了一个很简单的问题:某家公司的CTO叫什么名字?结果它答错了。

还有更夸张的。

有些人故意修改提示词,诱导AI说出脏话。结果AI真的就照做了,然后,被人截图发到网上,还带出了某企业的LOGO。

两家公司是谁,今天不提名字。但从现象中可以看出,AI在完成任务、推理方面确实进步很大,但一到细节,问题就出来了。

主要面临两个方面的挑战:一,伦理和道德的问题。比如:AI生成的内容,会不会误导人?或者让人不舒服?

第二个,是技术上的问题。虽然整体表现不错,但在回答具体问题时,比如人名、事实判断、逻辑推理这些方面,还是容易出错。

这些问题,不是一两天就能解决的。但不能不解决。

这两天,有几个技术传播口的同学找我探讨,说出了解决的痛处,他们说,传统的公关手段已经不管用了。

为什么?

因为有些事情本身不大,只要官方下场回应,反而让人觉得这事儿很严重;但如果不回应呢?技术上的小问题,一开始只在小圈子里面传,时间一长,信息慢慢扩散,最后反而舆情越来越大。

还有一个现象是:

很多博主喜欢把发现的技术漏洞发到小红书、微博上。其他人看到后会觉得很好玩,抱着吃瓜心态围观评论,接着,有些人会换个说法,再把这些内容重新发布一遍。

这就像,二次创作,同样的问题,用不同的形式反复出现,就会不断发酵。

原本的内容只是简单描述了技术错误,但经过重新包装和调侃后,反而吸引了更多人的注意,传播得更广了;所以你看,一个问题本质没变,但只要换了个包装,就能一直被讨论下去。

怎么办?我的建议是:

多看看电影,特别是那些讲AI和科技相关的。是不是听着有点奇怪?甚至有点搞笑?

但你细想一下,现在很多AI带来的伦理问题、技术漏洞,用传统的公关方式很难解决,它太高频了。电影,尤其是像英剧《黑镜》(Black )这样的作品,早给我们提供了一个“旁观者”的视角。

它能让你完整地看到:一个技术问题是怎么出现的,怎么被放大,用户情绪是怎么变化的,最后又是怎么收场的。

有了这种视角,你在面对现实中的类似问题时,反而能更冷静、更有办法去应对。

我先说明一下,“黑镜式技术危机”不是一个正式的概念或专有名词,一些人知道它、或被圈内讨论,主要因为剧里描述的技术危机,跟现在遇到的很多问题非常相似。

它用虚拟现实、社交媒体、人工智能这些技术的极端使用,把一个个故事呈现了出来。

这部剧的核心,是探讨科技发展到一定程度后,会对人、对社会带来哪些影响。比如:隐私没了、人与人之间的关系变淡了、道德标准越来越模糊,甚至人性本身都会被改变等等。

那问题来了:企业真的遇到了像《黑镜》里那种技术危机,该怎么办?我先说清楚一点:技术加伦理的公关危机,不能等出了事再解决,得提前预防。

那怎么防?我总结了三点:

一,建立官方反馈渠道。就是说,发布一个技术产品时,最好有一个让用户提意见的地方。比如社群、社区、小助手账号这些,放在你自己的官方平台上就行。

这样用户发现问题时,知道该去哪儿说。如果没有这个渠道,他们会自己发帖、在微博上吐槽,或者在小圈子里传,那样负面信息就容易失控。

二,用社区的方式做技术内容运营,光有渠道还不够,还要让用户愿意来反馈。

怎么做?可以设一些奖励机制。早些年,电脑厂商、杀毒软件公司上线新产品时,会发“英雄帖”:只要你发现漏洞并通过官方渠道反馈,就能拿到奖励,可能是奖金,也可能是周边礼品。

这样,用户会觉得自己的意见被重视,反而愿意帮你解决问题,而不是去网上抱怨,有点像一起共创的感觉。

三,做好舆情管理,及时社区回应。

企业一定要关注网上有没有关于产品的负面讨论,一旦发现已经在自媒体上传开了,就不能装没看见。越不回应,问题就越严重。

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注