【加拿大】为何突然人人都变成了玩偶?最新AI趋势不仅仅是无害的娱乐

【编者按】

当AI滤镜将普通人一键变成塑料质感的玩偶形象,这场席卷全球社交媒体的狂欢已超越单纯的技术娱乐。从明星政要到商业品牌,从轻松搞笑的TikTok到严肃的职场平台,这场”玩偶化”浪潮折射出数字时代身份表达的新形态。在虚拟形象与真实身份边界日益模糊的当下,我们既见证着技术赋权带来的创意迸发,也需思考这种集体性形象重塑背后的文化隐喻与社会认同。

The AI-generated dolls in fake packaging. One says marketer, one says Dawn Butler MP, and one says Suzie vacay edition.
AI玩偶趋势席卷社交媒体

如果你最近经常刷社交媒体,你可能会注意到很多…玩偶。
X平台和Facebook信息流中到处都是玩偶。Instagram?玩偶。TikTok?你猜对了:玩偶,还有制作玩偶的教程。甚至连LinkedIn这个可能是最严肃、最不有趣的社交平台也到处都是玩偶。
你可以称之为芭比AI处理或芭比盒子趋势。或者如果芭比不是你的菜,你可以选择AI动作人偶、动作人偶入门包或ChatGPT动作人偶趋势。但无论你怎么标记它,玩偶似乎无处不在。

名人、政要和品牌纷纷加入

在这一新趋势中,人们使用ChatGPT等生成式AI工具将自己重新想象成玩偶或动作人偶,并配有各种配件。事实证明这相当受欢迎,不仅仅是影响者在参与。

None

名人、政治家和主要品牌都纷纷加入。报道这一趋势的记者们也制作了自己拿着麦克风和相机的版本。用户们几乎为所有你能想到的知名人物制作了版本,从亿万富翁埃隆·马斯克到女演员兼歌手爱莉安娜·格兰德。

起源于LinkedIn的营销趋势
专家警告:不仅仅是无害的娱乐

虽然它们有一些相似之处(模仿美泰芭比的盒子和包装、个性驱动的配件、塑料般的微笑),但它们都像发布它们的人一样各不相同,除了一个关键共同特征:它们不是真实的。
但此后它已经泄露到其他平台,似乎每个人都在找点乐子,看看塑料生活是否真的如此美妙。然而,几位接受CBC新闻采访的AI专家表示,这不一定就是无害的娱乐。

“在生成式AI方面,现在仍然非常像狂野西部,”多伦多城市大学社交媒体实验室研究主任Anatoliy Gruzd教授说。”大多数政策和法律框架还没有完全跟上创新的步伐,这取决于AI公司来决定他们将如何使用你提供的个人数据。”
This photo illustration taken on April 2, 2025 shows a woman looking at a Facebook user profile displaying an image generated by artificial-intelligence (AI) in the style of Studio Ghibli animation on a mobile phone in Bangkok.
隐私担忧

阿尔伯塔大学计算机科学助理教授Matthew Guzdial表示,从社会学角度来看,生成玩偶趋势的流行一点也不令人惊讶。

“这是我们拥有社交媒体以来就有的那种互联网趋势。也许过去是转发电子邮件或分享结果的测验,”他告诉CBC新闻。

但与任何AI趋势一样,人们对其数据使用存在一些担忧。
生成式AI总体上带来了重大的数据隐私挑战。正如斯坦福大学以人为本人工智能研究所所指出的,数据隐私问题和互联网并不新鲜,但AI如此”渴望数据”,以至于加剧了风险的规模。

“如果你向在线系统提供关于你的非常个人化的数据,比如你的脸、你的工作或你最喜欢的颜色,你应该明白这些数据不仅仅对获得即时结果有用——比如一个玩偶,”研究AI和人权的英属哥伦比亚大学政治学教授Wendy Wong说。
None
查看全文: 点击查看原文 |
⏰ 发布时间: 2025年04月15日

【美国】2020年十大科学伦理困境

【编者按】

当科技发展日新月异,伦理边界却日益模糊。这份年度伦理困境清单提醒我们,在拥抱技术革新的同时,更需警惕其潜在风险。从护肤品伪科学到基因编辑争议,每一个议题都关乎人类社会的未来走向。我们亟需建立开放、理性的公共对话机制,让科技发展始终行驶在以人为本的轨道上。

 Top 10 Ethical Dilemmas in Science for 2020
年度伦理困境清单发布
“我们生活在一个快速发展的时代,几年前还只是理论的技术正日益融入我们的日常生活。我们担心的是,关于这些技术的使用和风险缺乏公共对话,而这种对话对于让公共政策跟上科学技术的步伐是必要的。”

这是巴伦的2020年清单,排名不分先后。

1. 护肤品的伪科学

社会是虚荣的——这并不奇怪。但护肤品市场正在利用这一事实,”皮肤科技”预计在2020年价值128亿美元。皮肤科技的子类别包括但不限于:LED面膜、电子洁面仪、面部按摩器、智能镜子和护肤摄像头。问题在于,美容公司将自己标榜为”临床验证”,而事实上并非如此。制造商进行的大多数研究不符合科学方法,且不可复制。被雇来吹捧这些产品的专家也不是科学家——他们通常是名人,甚至是有着自己议程的皮肤科医生名人。

2. 招聘中的人工智能和游戏化

这里巴伦提出了一个令人震惊的问题:你就是你的数据吗?虽然招聘公司已经可以看到候选人的社交媒体历史,但一些公司更进一步,使用神经学游戏和情绪感知识别作为评估的一部分。如果走向极端,这意味着机器可以完全根据你对游戏的反应或面部表情来决定你是否适合某个职位。别管你的简历、电话面试、现场面试或令人印象深刻的履历——这一切都可能毫无意义。

3. 掠夺性期刊

研究人员估计大约有8,000种掠夺性期刊,即缺乏同行评审等伦理实践且标准极低的期刊。问题是,当这些期刊发表任何内容时,这些信息就成为不知情的研究人员和科学家的素材,他们被欺骗相信这是真相。鉴于学术界发表论文的巨大压力,一些人变得足够绝望——有意或无意地——与这些掠夺性期刊打交道。正如你将在本清单后面读到的,我们再也承受不起更多虚假数据了。

4. HARPA SAFEHOME提案

唐纳德·特朗普总统的白宫正在考虑一个有争议的计划,即监控精神病患者,以此阻止美国的大规模枪击事件——这个计划听起来很像现实版的《少数派报告》。HARPA由一个与政府无关的第三方胰腺癌基金会运营,将利用手机和智能手表上的数据来检测精神病患者何时即将变得暴力。除了侵犯公民自由之外,研究尚未找到可靠的基准来预测暴力行为,甚至无法区分精神病患者与非精神病患者。

5. ClassDojo与课堂监控

ClassDojo是一个流行的在线工具,通过课堂记录,对儿童的行为进行评分,然后与班级和家长分享。该系统的公司表示,其目的是在课堂上培养积极行为,但专家提出了不少担忧,包括:1)信息是否可能被黑客攻击;2)良好行为如何量化/定义?;以及3)它是否会在学生中引发焦虑/羞耻?

6. 格林奇机器人

恰当地命名为”格林奇机器人”的在线实体,在热门商品一上市就抢购一空,以控制供需。一旦商品售罄,它们就会在二级市场上以虚高的价格转售。这不是一个新问题,但也没有新的解决方案。2016年,国会通过了《更好的在线票务销售(BOTS)法案》,但效果不佳。《2018年阻止格林奇机器人法案》去年提出,目前正等待众议院的进一步行动。然而,该法案只会使转售由自动化机器人购买的产品成为非法,显然不适用于世界其他地区。

7. 夜莺计划

这项名为”夜莺计划”的合作,是美国第二大医疗系统Ascension与谷歌合作,在谷歌云上托管健康记录。该计划覆盖21个州的大约2,600家医院、医生办公室和其他相关设施,持有数千万患者记录。两家公司都签署了HIPAA(健康保险可携性与责任法案),意味着谷歌除了提供云托管服务外,不能对这些记录做任何其他事情。然而,《华尔街日报》报道称,医生和患者都没有被告知这些记录发生了什么,大约150名谷歌员工可以访问这些数据。随着数据越来越多地转移到云端和其他存储选项,以及微软和苹果等公司也推出健康项目,我们必须确保我们的数据受到保护。

8. 学生追踪软件
查看全文: 点击查看原文 |
⏰ 发布时间: 2019年12月17日