AI玩坏了美国股市?五角大楼爆炸竟是假象!
2023年5月22日。当天早上,在推特、脸书和微信等社交媒体上突然出现了一张五角大楼被巨大火球吞没的照片。照片下面配有一段文字,声称这是美国遭到了恐怖分子的袭击。
这张照片迅速引发了网友们的恐慌和议论,有人表示同情和担忧,有人表示怀疑和质疑。不少人还转发了这张照片给自己的亲友。
这张照片的影响力不仅限于网络。据彭博社报道,这张照片还导致了美国股市在当天开盘后出现了一波剧烈波动。
一些投资者在看到这张照片后,认为美国可能面临战争或恐怖袭击的风险,于是纷纷抛售股票以避免损失。这导致了道琼斯工业平均指数在开盘后10分钟内下跌了近200点。
然而,在这场混乱中,也有一些冷静和理性的声音。一些网友开始仔细分析这张照片的细节,并发现了一些不合常理和逻辑的地方。
例如,五角大楼周围没有任何爆炸后留下的痕迹和残骸;火球的形状和颜色与真实的爆炸火球不符;五角大楼上空没有任何飞机或导弹等可见的攻击物体;以及这张照片没有任何可靠和官方的来源和证实。
经过进一步调查,这张照片的真相终于水落石出。原来,这张照片是由一个名为DeepFake Studio的网站制作的。
该网站声称可以用AI技术为用户创造任何想象中的场景,并提供了一些示例图片供用户参考。其中就包括了这张五角大楼爆炸的图片。也就是说,这张图片根本不是真实拍摄的,而是由AI合成的!
那么,谁制作了这张图片,并为什么要发布到社交媒体上呢?目前还没有确切的答案。有人怀疑是恶作剧者或黑客所为;有人怀疑是某些政治势力或组织所为;也有人怀疑是某些金融机构或投资者所为。
无论如何,这件事情给我们敲响了一个警钟:AI生成的假象可能会对我们的社会和政治造成严重的影响。
为了防止类似事件再次发生,并帮助用户识别虚假和AI生成的图片,谷歌正在推出一些新功能。例如,在图片搜索结果中提供更多的背景信息,如图片或类似图片首次被谷歌索引、首次出现和出现过的地方等;以及在AI生成的内容上加上标签,如“由谷歌工具生成”等。
谷歌还与其他平台和服务合作,确保他们也对自己发布的AI内容进行标注。谷歌表示,希望通过这些功能,让用户能够更容易地找到图片的原始来源,并能够看到任何可能存在的辟谣证据。
当然,在识别虚假和AI生成图片方面,并非只有谷歌在努力。还有一些创业公司正在开发验证和认证工具。例如,微软支持的Truepic公司,就提供了一种系统,可以确保图片从拍摄到传输都没有被篡改过。
总之,在AI技术日益发达和普及的今天,我们需要更加警惕和审慎地对待网络上看到的图片。我们不能轻信任何没有来源或证实的信息,并要学会用多种渠道和方法来核实真相。
同时,我们也要期待并支持更多像谷歌这样负责任和有良心的科技公司,在保护我们免受虚假和AI生成图片侵害方面发挥更大作用。