【干货】一小时上手达芬奇剪辑!第一集:入门简介

影视飓风达芬奇笔记&总结:
快捷键:
平行节点:ait+p(图层)
串行节点:alt+s(组)
图层节点:ait+l(合并)
绕过调色效果显示:SHIFT+D
隐藏单个节点效果:CTRL+D
隐藏所有节点效果:AIT+D
突出显示:SHIFT+H(显示蒙版)
新建时间线:CTRL+N
修剪编辑模式:T(PR波纹/外滑)
定位:F(播放线要在选中的片段上)
链接片段:CTRL+SHIFT+L
检查器(效果控件):按住ALT拖动数值,效果变慢展示
后退暂停快进:JKL(按住L再按JL,单帧进退)
选中片段:SHIFT+V
波纹剪辑:SHIFT+CTRL+【】
向前选择:AIT+Y
向后选择:AIT+SHIFT+Y
全选:CTRL+A
全屏:CTRL+F
示波器:CTRL+SHIFT+W
Tip:

PR交互:
1.PR中:文件-导出-final...XML
2.达芬奇中:文件-导入时间线-XML(CTRL+SHIFT+I)
3.达芬奇中:交付选择PRXML-导回PR
注:3中导回PR无法编辑片段长度
复制其他片段的调色参数:
1.选中未调色片段,在调好色的片段按鼠标中键。
2.抓取静帧,选中未调色片段,用静帧应用调色。
- 偏好设置-开启实时保存&实时保存
流程:
媒体-快编-剪辑-fusion-调色-fairlight-导出
分类:
AROLL-BROLL-PULL UP
启动设置:
保存项目CTRL+S防止崩坏
偏好设置,用户项目保存和加载:实时保存,项目备份勾选。
- 文件夹直接在剪辑面板左上角窗口拖入,会生成带文件夹的素材

调色:
素材信息:调过色的素材外框会变成彩色,双击素材编码格式可切换成名称;

调色面板:
色轮:可调RGB与亮度
滴管:点一下画面中的白色物体,校正白平衡
轴心:对比度的发生点
中间调细节:增加清晰度
色彩增强:基于现有饱和度再分配
亮度混合:开到0时,单独调整某个色彩通道,不会丢失细节
还原参数:
回转箭头;
右键节点→重置节点调色;
右键节点面板→重置所有调色和节点
查看调色对比:shift+d
Tip:
- 匹配颜色:选中待调色的片段,鼠标中键点想复制的画面,就能复制它所有的节点和参数
- 大量复制:抓取想复制画面的静帧→选中待调的片段→右键静帧→应用调色
- 调色整个时间线:节点面板上方下拉按钮→将片段切换成时间线→创建节点
对时间线部分素材另做调色图层:
特效库→搜索调整图层→拖入时间线→调色
导出:
统一不同设备视频画面颜色:
MAC中:达芬奇→偏好设置→常规→勾选“为检视器使用mac显示色彩描述文件”;
项目设置→色彩管理→时间线色彩空间→互联网视频设置成REC709-A;
17中:导出界面→高级设置→色彩空间标签与Gamma标签都选“与项目相同”
代理模式:
预览分辨率:菜单栏播放-代理模式-HALF/quarter
视频文件代理:菜单栏项目设置-主设置-优化的媒体和渲染缓存
经过优化的媒体格式 DNXHR SQ
更改缓存磁盘
更换电脑:拷贝代理文件,选中素材-重新找到优化媒体文件
理论
帧数:
默认帧数为25帧,PAL
(国内交流电为50HZ,我们使用1/50快门进行拍摄可以更好的规避灯光频闪)
胶片原理:
电影胶片流程:负片拍摄(正片贵效果不好)→洗印车间无尘洗印(雪花点:运输过程中吃灰)→印成正片导演剪辑样片(剪开用透明胶带纸黏在一起)→洗印工人将样片对齐数字时间剪辑(套底)
文件打包/换磁盘
文件—>媒体文件管理;
项目导出:文件-导出项目
剪辑6要素:
剪辑思路:
情绪51%
故事23%
节奏10%
视线追踪7%
二维平面5%
三维空间4%
1. 三维空间(空间关系)
①不剪入关系镜头会导致地理位置模糊
②不要总剪入一些视野受限的镜头
③每一个镜头都在为观众开拓视野
2.二维平面
①轴线:让观众清楚位置关系(人物对视方向的一侧正反打)注意:目光方向也要匹配
②里面的世界是三维的,但屏幕本身不是
3.视线追踪(引导观众跟上你的剪辑)
①主体多位于正中间,偶尔散开或位于两侧
②如果一切都是静的我们就看动的……
③先让自己眼睛舒服
4.节奏(一张一驰带来的感受)
①节奏不完全等于“踩点”,踩音乐点只是作曲为你设置了节奏
②除了台词还有很多视听因素控制节奏
③为你的片子设定一个整体节奏
④让你的节奏变成曲线而不是一个直线
• 激烈之后是平静,平静之后是激烈
• 关于放慢节奏,必要时插入镜头放缓节奏
⑤燃能衬静,静能衬燃
5.故事(发明剪辑就是为了更好地讲故事)
①让前后的片段产生关联,形成组
②剪辑师让多个镜头形成故事
• 信息被分到不同镜头,每个镜头都有使命,每个镜头都有作用
③重复切回画面再次强调关联性
④利用剪辑跳跃一些沉余部分
•长镜头体现真实性
•剪辑是在讲故事
⑤找到一种最适合的讲述方式
6.情绪
①一个好的作品总是伴随着丰富又自然的情绪变化
②长时间陷入一种情绪会产生疲倦
③情绪是最好的联系,不同场景但情绪相同可以直接衔接
④剪辑手段可以烘托情绪(例如快剪强化了焦躁不安)
⑤永远以实际感受为准
结语:当你没有丰富的剪辑经验,无法准确组织一个思路的时候,最好的办法就是一边剪辑一边用这六大要素检查自己,然后做出对应的修改,但也不要钻牛角尖,一切以实际感受为准。
什么是视频与视频压制
视频(Video)泛指将一系列静态影像以电信号的方式加以捕捉、记录、处理、储存、传送与重现的各种技术。连续的图像变化每秒超过24帧(frame)画面以上时,根据视觉暂留原理,人眼无法辨别单幅的静态画面;看上去是平滑连续的视觉效果,这样连续的画面叫做视频。
一般而言,我们所说的视频包括视觉信号和声音信号,可以用一种容器(格式)将这两种信号(或者一种信号)收纳进来成为一个整体。通过特定的压缩技术将某个视频格式转换成另一种格式的过程,我们称为编码,也就是压制。
那么我们为什么要压制?
首先,最直接的收益就是节约空间。各位如果有下载蓝光原盘的经验就知道,动辄上百G的源文件对硬盘存储来说可谓是致命杀手。而BDRIP则友好很多,一部90分钟的电影,采用H.264压制可以压缩到2-4G左右,画面损失微乎其微。这对松鼠党来说无疑是一件天大的好事。
在视频体积缩小的同时,其所占用的网络流量也大大降低,有效的缓解了带宽压力,对在线视频的发展也提供了有力的支持。
其次,早年间,勤劳的搬运工们为了让大家看到画质更好的视频,通过自身精湛的压制技术与各大视频网站展开了持续数年的艰苦卓绝的斗争,衍生出了“战渣浪”等经典词汇。要知道,早年各大视频网站为了减轻自己的服务器压力,会对用户上传的视频进行二次压缩。一部1080P的视频,如果不进行任何处理就上传,等服务器二压完毕以后你会发现自己辛苦搬运过来的高清视频全变成了马赛克。
于是为了绕过网站的检测机制,压制技术获得了突飞猛进的发展。与其让服务器进行二次压缩,不如先一步把视频压成符合规定的制式,或者用各种手段骗过检测。
所以无论从哪方面来看,视频压制都是需要的。
视频各参数的意义
我们一条一条来解释每个参数的意义
1. A1560005.MOV
就是文件名,没什么意义
1. 容器:MPEG-4
就是说明容器,没什么意义
1. 总码率:96.0 Mb/s
码率=大小/时长,文件大小的单位是MB,1B=8b(bit),时长的单位是s,如图所示该素材的视频文件大小为177MB=1416Mb(包括视频、音频),时长为15.5s,码率即1416/15.5=91.3Mb/s,近似
码率与视频的关系就好比面粉与面包,原料用的越多,成品越实惠,但成本也更高。我们的目的就是在保证质量的前提下尽可能的减少成本,压缩码率。
1. 大小:177MiB
就是文件大小,没什么意义
1. 时长:15s500ms
就是素材时长,没什么意义
1. 视频(1):AVC
这里的意思是轨道1是视频,AVC编码。这里插播一条知识,在视频中,容器内的东西每一样都是一条轨道。比如一个MKV封装的电影,里面可能包含1个视频,2个音频(国语音轨和外语音轨),3个字幕(中文字幕、英文字幕、中文&英文字幕),那么这个MKV就有6个轨道,序号1-6
1. Profile:High@L5.1
中文版megui中管这个东西叫AVC档次,High就是高档次,L5.1是AVC级别level5.1的缩写,这个理解为编码的高级程度就行了,具体会在后面压制工具部分讲。
1. 码率:94.3Mb/s
视频码率,即容器内轨道1的视频的码率。
1. 文件大小:174MiB(98%)
视频文件大小
1. 分辨率:4096x2160
开头我们讲到,视频由连续的图像组成,而组成图像的基本单位是像素(pixel)。所谓分辨率,就是指图像由多少像素组成,4096X2160就说明这个图像是由横(4096)x纵(2160)=8847360个像素点构成,图像的分辨率就是视频的分辨率。通常所说的2K、4K分辨率,指的是图像【横向】像素达到2K、4K以上。一般来说,图像的分辨率越高,画质就越清晰,但前提是,它【真的】符合它所显示的分辨率。
1. 画面比例:1.896(1.896)
画面比例按字面意思就能理解,即横向像素(4096)/纵向像素(2160)=1.896。常见的画面比例包括:
640x480 4:3 日本、韩国、东南亚及美国等所用的N制标清分辨率
720x576 4:3 中国、德国、英国及巴西等所用的PAL制标清分辨率
1280x720 16:9 高清分辨率
1920x1080 16:9 高清分辨率
2560x1440 16:9 2K
2048x1080 1.896 2K
4096x2160 1.896 4k
电影通常为2.35:1 ,即通常所说的宽荧幕
1. 像素宽高比:1.000
图像中的一个像素的宽度与高度之比,一般来说像素的宽高比均为1:1,即每一个像素都是一个小方块,当然也有例外。
细心的朋友应该已经发觉哪里不对了。在画面比例里我提到,PAL制的标清分辨率是720x576,宽高比为4:3,但720/576实际上应该是5:4,并不是4:3。事实上PAL制是将每一个像素拉长来保持画面比例,根据4:3来计算,标准分辨率为768x576,720/768=1.07,即PAL制的像素比为1.07。
1. 帧率:24.000FPS
帧率=帧频=帧速率,表示每秒变化的图像数量。PAL制帧率为25/50FPS,N制为30/60FPS。电影标准帧率为24FPS。我们常看到的23.976,29.970,59.94,其实都是24,30,60的另一种表示方法,实际为同一种东西。在计算帧率的时候,往往是以1001秒为基础进行计算,
例如24000/1001=23.976,在1001秒内,有24000张图像,所以帧率为23.976FPS,即24FPS,30、60同理。注意,视频的帧率可以是恒定的(cfr, Const Frame-Rate),也可以是变化的(vfr, Variable Frame-Rate)。
这里不得不提日本动画常用的一种手段,首先我们纠正一个误区,所谓的“某个片子非常好看,帧数超高!”这种说法是完全错误的。TV动画,包括动画电影,绝大部分都是按照24FPS来制作的,也就是说从始至终,截取任何1秒动画素材,都可以得到完整的24张图像。但是,有24张图像,并不代表这24张图像都是【不同】的。
事实上,日本动画1秒钟大多只有8张图像,通过把每张图像重复使用2-3次来填充满1秒的时长。把1秒24张图像每一张都画出来的动画很少,为什么呢?因为成本太高。
实拍画面的可变帧率可以用类似的方法理解。我们拍摄一组画面,第一个是固定镜头,展示一个摆满物体的房间,第二个镜头拍摄一个人走进来拿起一件物品。在后期压制的时候,可变帧率可以有意识的在第一个镜头中使用较小的帧率,第二个镜头使用较大的帧率,这样就可以极大的缩小整个片子的体积,节约储存成本。
这里再插播一条知识:通常拍摄视频时设备内部会显示切换N制还是PAL制,有些设备(比如松下的摄像机)则显示切换50Hz与60Hz,这是因为电视帧率涉及到电网交流电的频率,PAL制地区与N制地区用的是50Hz和60Hz的交流电,所以在部分设备中切换N、PAL制的选项会显示切换成多少赫兹。
1. 色彩空间:YUV
色彩空间指的是图像存储中用来描述颜色的模型,分为RGB模型和YUV模型
·RGB模型指的是通过记录每个像素红(Red)、绿(Green)、蓝(Blue)的强度来描述颜色
·YUV模型指的是通过记录亮度信号Y(Luma)和两个色度信号UV(Chroma,通常记为蓝色1色度Cb,红色1色度Cr)来描述颜色
1. 色度抽样:4:2:0
近年来,视频工程师发现人眼对色度的敏感程度要低于对亮度的敏感程度。在生理学中,有一条规律,那就是人类视网膜上的视网膜杆细胞要多于视网膜锥细胞,说得通俗一些,视网膜杆细胞的作用就是识别亮度,而视网膜锥细胞的作用就是识别色度。所以,人的眼睛对于亮和暗的分辨要比对颜色的分辨精细一些。所以,在我们的视频存储中,没有必要存储全部颜色信号。反正眼睛看不见,那为什么要浪费存储空间来存储它们呢?
在MPEG2(DVD刻录常用格式)当中,Y、Cb、Cr信号是分开储存的。其中Y信号是黑白信号,是以全分辨率存储的。但是,由于人眼对于彩色信息的敏感度较低,色度信号并不是用全分辨率存储的。色度抽样就是用来表示Y和UV的采样多少的。
这条素材采用4:2:0采样,意思就是色度采样在横向和纵向的扫描线上只有亮度采样的一半。
概念上4:2:0颜色格式非交错画面中亮度、色度采样信号的排列情况。
如图所示,每一个像素都有一个亮度采样Y与之对应(矩形方块),横向一共有4条Y信号,纵向共有12条Y信号,而色度信号横向只有2条,纵向只有6条,均为Y信号的一半。这样一来,整个屏幕中色度采样只有亮度采样的四分之一。
在4:2:0颜色格式中,色度采样被放在了两条扫描线中间。为什么会这样呢?很简单:DVD盘上的颜色采样是由其上下两条扫描线的颜色信息“平均”而来的。比如,第一行颜色采样(Line 1和Line 2中间)是由Line 1和Line 2“平均”得到的,第二行颜色采样(Line 3和Line 4中间)也是同样的道理,是由Line 3和Line 4“平均”得到的。
注意,这个“平均”可不是我们通常意义上的(a+B)/2的平均。颜色的处理有极其复杂的算法保证其最大限度地减少失真,接近原始质量。
4:2:0是一个混乱的称呼,按照字面上理解,4:2:0应该是每4点Y采样,就有2点Cb和0点Cr,但事实上完全不是这样。在4:2:0中,“缺失”的色度采样不单单要由左右相邻的采样通过内插补点计算补充,整行的色度采样也要通过它上下两行的色度采样通过内插补点运算获得。这样做的原因是为了最经济有效地利用DVD的存储空间。
说完了4:2:0我们来说说4:2:2。
4:2:2就如同字面所示,每4点Y采样,就有2点Cb和2点Cr与之对应。从图上可以很明显的看出4:2:2和4:2:0的区别,在这里,每个像素都有与之对应的亮度采样,同时一半的色度采样被丢弃,所以我们看到,色度采样信号每隔一个采样点才有一个。当这张画面显示的时候,缺少的色度信息会由两侧的颜色通过内插补点的方式运算得到。
最后是4:4:4。
4:4:4是色度信号分辨率最高的格式,每4点Y采样,就有相对应的4点Cb和4点Cr。换句话说,在这种格式中,色度信号的分辨率和亮度信号的分辨率是相同的。这种格式主要应用在视频处理设备内部,避免画面质量在处理过程中降低。
在用AVS制作BDrip的时候我们会涉及到YV12,YUY2,YV24等格式,这里不做详解,只要记得YV12=YUV420,YUY2=YUV422,YV24=YUV444就行了。
1. 位深度:8bits
位深=色深(bit-depth),就是我们通常说的8bit和10bit,是指每个通道的精度。8bit就是每个通道用一个8bit整数(0~255)代表,10bit就是用10bit整数(0~1023)来显示。16bit则是0~65535。
假如你的显示器是8bit的,代表它能显示RGB每个通道0~255所有强度。但是视频的色深是YUV的色深,播放的时候,YUV需要通过计算转换到RGB。当你用8bit的显示器播放10bit的视频时,10bit的高精度会使得运算过程中精度增加,以让最后的颜色更细腻。
举个例子,一个圆的半径是12.33m, 求它的面积,保留两位小数。
半径的精度给定两位小数,结果也要求两位小数,那么圆周率精度需要给多高呢?也只要两位小数么?
取π=3.14, 面积算出来是477.37平方米
取π=3.1416,面积算出来是477.61平方米
取π精度足够高,面积算出来是477.61平方米。所以取pi=3.1416是足够的,但是3.14就不够了。
一个道理,即便最终输出的精度要求较低,也不意味着参与运算的数字,以及运算过程可以保持较低的精度。在最终输出是8bit RGB的前提下,10bit YUV比起8bit YUV依旧具有精度优势的原因就在这里。事实上,8bit YUV转换后,覆盖的精度大概相当于8bit RGB的26%,而10bit转换后的精度大约可以覆盖97%。
1. 扫描方式:逐行扫描
扫描方式分为逐行扫描(P)和隔行扫描(i),逐行扫描就是将每一帧图像由电子束顺序地一行接着一行连续扫描,隔行扫描是将一张图像进行两场扫描,一场只扫奇数行,一场只扫偶数行。
目前压制只用考虑逐行扫描。
1. 编码时间:UTC 2017-06-21 09:58:45
这个不解释了。
1. 总帧数:372
视频总帧数。
1. 音频(2):PCM
轨道(2)为音频,PCM编码。
目前常见的音频编码包括PCM、QAAC、FLAC、MP3、WAV、OPUS、ALAC等,其中PCM、ALAC、FLAC是无损格式。
1. 大小:2.84 MiB (2%)
同视频。
1. 码率:1 536 kb/s
音频码率,一般音频码率较小,所以单位是kb/s。
1. 采样率:48.0 kHz
音频常规立体声采样率为48000Hz,如果有配音的话,一般配音选择单声道44100Hz采样。
1. 声道数:2
双声道立体声。
字幕组压制的动画参数
除了H.265编码MKV封装这类常规信息以外,多了编码库和编码设置。这些东西是进阶学习的主要对象,本次略过不讲,单独讲下MKV。
再说一次,MKV不是视频格式,它不参与音视频的编码过程。
MKV是一个可以把所有视音频流包括字幕、章节信息等内容包裹进去的容器。如果你想制作一个精1品1电影,把包括5.1环绕声道,双声道立体声,译制版音轨,原声音轨,完整的章节信息,单、双语字幕等等全部融合成一个文件,而且在播放时可以根据需要随时随意的切换音轨、字幕的话,MKV是唯一的选择。
视频格式简介
●首先纠正一个误区:所谓的视频“格式”,与视频的“编码方式”是两回事。“格式”只是一种【容器】,里面装的东西才是重点。
做后期的时候经常会遇到下载素材却导不进软件的情况,“明明都是MP4,为什么你那么熟练就导进去了,我却不行呢?”问题就在于,MP4和MP4是不同的。举个简单的例子,一碗水果沙拉,一碗蔬菜沙拉,用相同的碗装起来这两样东西就一样了么?
我们常见的MP4、MKV、MPG、AVI等格式,就是例子中的碗。从功能上讲,他们之间没有任何区别,都是装载数据的容器,而把数据装进容器的过程,我们称之为“封装”。那么既然功能都一样,为什么还会用这么多不同的格式存在呢?
就算是碗,也有大有小不是。
时代在进步,容器也在进步。十年前MP4不支持封装H.265的视频流,也不支持封装ALAC的音频流。时至今日,MP4也不支持封装FLAC的音频流,所以目前大部分5.1环绕声道的电影都是用MKV封装,因为MKV支持封装几乎所有的视音频编码格式,而且支持封装ASS/SSA格式的外挂字幕。
反过来说,如果两个视频文件的封装格式不同(MP4,MKV),但内容的视频流和音频流的编码完全一样(H.264,AAC),那么完全可以说这两个视频是同一个,他们在使用上没有任何区别。
至于偶尔听到的“MKV的画质一定比MP4的好”之类的声音,听听就是了,别当真。
目前常见的格式包括MKV、MPEG、AVI、WMV、MOV、DivX、FLV、F4V、M2TS等,真要说哪个格式画质好,也就M2TS算得上。为什么呢?因为M2TS是蓝光专用的。
说完了格式我们说说编码。常用的视频编码标准有“MPEG-4AVC/H.264(8/10bit)”和“HEVC/H.265(8/10bit)”,H.264(AVC)于2003年3月正式发布,至今已统治近10年,市面上的单反、摄像机,包括移动设备等记录的视频几乎都是该编码;H.265(HEVC)是ITU-T VCEG(视频编码专家组) 继H.264之后所制定的新的视频编码标准,于2013年2月提出。目前主流电视盒子都可以硬解H264 8BIT和H265 10BIT编码的视频,包括4K。
小丸工具箱
●小丸工具箱是一款用于处理音视频等多媒体文件的软件。是一款x264、ffmpeg等命令行程序的图形界面。它的目标是让视频压制变得简单、轻松。
● 主要功能:
· 高质量的H264+AAC视频压制
· ASS/SRT字幕内嵌到视频
· AAC/WAV/FLAC/ALAC音频转换
· MP4/MKV/FLV的无损抽取和封装
●这款软件最大的特点就是简单高效,非常适合初上手的压制者使用。
■视频参数在视频标签页内设置。
操作只需要5步
·把需要压制的视频拖到视频那栏
·选择合适的编码器
·设置CRF参数
·选择压制的格式
·点压制
●所谓CRF,就是Const Quality/Const Ratefactor,固定质量模式。x264用一种结合人心理学估算出来的值,来衡量视频的目测质量,这就是rf(ratefactor),用浮点数表示,0为无损,越高质量越差。CRF就是在视频前后采用恒定的rf,从而使得视频前后的目测质量几乎一致。CRF模式下,码率的时间分配效果是最理想的,也是最常用的模式。
一般常见的视频,CRF设置在18-26左右。CRF越大码率越低。 19-21.5可以压制出高码率,追求极高效果可以设置为16-17,网络播放则设为24即可。
不推荐使用2pass模式,有可能会出现一些问题,软件所限。
编码器
注意使用时尽量选用32位版本的编码器,64位编码器很容易出问题,x265请务必选择10bit。
如果需要把外挂字幕压制进片子中,只需要把ASS/SRT格式的字幕文件拖到字幕栏即可,不要设置FPS。这样压制出来的将是【硬字幕】,即字幕和视频是一个整体,压制完成后字幕无法进行提取,切记。
●音频参数要在音频标签页下设置,修改完毕后切回视频标签页,点压制会自动使用设置的音频参数。
压制音频不需要特意把原视频的音轨抽取出来拖到音频里,除非有特殊需。这一页只需要设定好参数即可。
一般选择NeroAAC,如果选择FLAC的话记得在视频标签页内选择MKV格式,安装有QuickTime的话可以使用QAAC,MP4可以封装。
码率默认为128kbps,也可更改为96kbps,进一步节省空间。
●封装比较简单,把处理好的视频和音频拖入相应的轨道点封装即可。这里的封装是不更改视频原本编码的,也就是说你可以把MPEG编码的视频封装为MP4,但内里还是MPEG的编码。
合并为MKV也是一样,这里的字幕可以直接封装ASS/SRT格式的外挂字幕,与压制不同的是,这里不会把字幕压制到视频中,即是所谓的【软字幕】,封装完后仍可以在抽取页面把字幕完整的提取出来。
抽取页面可以提取目前所有格式的视频,并且小丸内置了提取MKV内封轨道专用的gMKVExtractGUI,点使用第三方工具抽取调用。