OpenAI发布文字直接生成视频 网友:颠覆了电影业我将失业︱有片
2024-02-17 11:20
北京时间2月16日凌晨,OpenAI再次扔出一枚「深水炸弹」,发布了首个文生视频模型Sora。据介绍,Sora可以直接输出长达60秒的视频,并且包含高度细致的背景、复杂的多角度镜头,以及富有情感的多个角色。
目前官网上已经更新了48个视频demo,在这些demo中,Sora不仅能准确呈现细节,还能理解物体在物理世界中的存在,并生成具有丰富情感的角色。该模型还可以根据提示、静止图像甚至填补现有视频中的缺失帧来生成视频。
用一句文字生成一段视频
最受关注的个视频,用家仅输入一个Prompt(大语言模型中的提示词),描述是:在东京街头,一位时髦的女士穿梭在充满温暖霓虹灯光和动感城市标志的街道上。在Sora生成的视频里,一名架著墨镜的「型」女,身著黑色皮衣、红色裙子在霓虹街头行走,不仅主体连贯稳定,还有多镜头,包括从大街景慢慢切入到对女士的脸部表情的特写,以及潮湿的街道地面反射霓虹灯的光影效果。
另外公开的视频,包括一部电影预告片,讲述了30岁太空人戴著红色羊毛针织摩托车头盔的冒险经历。画面中,蓝天、盐漠,电影风格,如35毫米胶片拍摄,色彩鲜艳。
AI也生成了一段中国龙年春节视频,红旗招展人山人海。有紧跟舞龙队伍抬头好奇观望的儿童,还有不少人掏出手机边跟边拍,海量人物角色各有各的行为。
对于这些由AI仅由文字就能生成的视频,网友直呼「game over」、「工作要丢了」,甚至有人已经开始「悼念」一整个行业。还有网友表示,电影业要彻底颠覆了。
一位YouTube博主Paddy Galloway发表了对Sora的感想,他表示内容创作行业已经永远的改变了,并且毫不夸张。「我进入YouTube世界已经15年时间,但OpenAI刚刚的展示让我无言…动画师/3D艺术家们有麻烦了,素材网站将变得无关紧要,任何人都可以无壁垒获得难以置信的产品,内容背后的『想法』和故事将变得更加重要。」
对于Sora当前存在的弱点,OpenAI也不避讳,指出它目前可能难以准确模拟复杂场景的物理原理,并且可能无法理解因果关系。
周鸿祎:AGI或在一两年内就可以实现
内地的科技公司360集团创始人、董事长周鸿祎在微博发文谈OpenAI视频生成模型Sora。他表示,OpenAI训练这个模型应该会阅读大量视频,大模型加上Diffusion技术需要对这个世界进行进一步了解,学习样本就会以视频和摄像头捕捉到的画面为主。一旦人工智能接上摄像头,把所有的电影都看一遍,把YouTube上和TikTok的视频都看一遍,对世界的理解将远远超过文字学习,一幅图胜过千言万语,而视频传递的信息量又远远超过一幅图,这就离AGI(通用型人工智能)真的就不远了,不是10年20年的问题,可能一两年很快就可以实现。
---
《星岛头条》APP经已推出最新版本,请立即更新,浏览更精彩内容:https://bit.ly/3yLrgYZ
最新回应