贾樟柯拍短片不用天天盯屏幕了,
AI真能听懂“再忧伤一点”这种话?
它到底在帮人还是替人做主?
Seedance 2.0上线快一年了,我刷到贾樟柯那个短片,两个他坐在炕上聊天,一个真人,一个AI生成的,连手放腿上的角度都像。
不是为了假,是导演自己选的——要那种“有点生、但有温度”的感觉。
海辛拍了个42秒一镜到底的镜头,没切,也没卡。
他说以前光调运镜就得两三天,现在改一句“再慢半拍”,AI就懂,还带着光影过渡一起改。
老张养虾的,用手机拍机械猫跳《科目三》,发进去一张图、一段音频,真出了成片,连“甩头”的节奏都卡在鼓点上。
万兴剧厂说能当导演用,我看不是吹。
文字+图+声音+风格参考,四样东西一扔,后面剪辑、配乐、调色全在跑,人就在旁边看,不满意就喊停。
但真想拿真人脸生成内容,得先签协议,最低1000万起。
昨天我爸翻出老相册,想用这个软件做一段《金刚经》的动画。
他试了三次,最后一次成功了,画面很静,字幕慢,背景是雨声。
工具变快了,可该想什么,还是得自己想。
