模塑科技(000700):模塑科技关于模塑转债回售结果 微资讯
股票代码:000700股票简称:模塑科技公告编号:2023-022债券代码:127004债
最近可能没时间更新,给大家发篇以前记的笔记吧
大二写的,记到现在,随便看看,希望能帮助到大家,里面有几小段可能不适合当下的技术环境了,大家记得辨认
希望大家转发时注明来源
(相关资料图)
数字影像流程: 镜头将现实场景成像到CMOS上——CMOS将光信号转换为电流信号——电流数据进入摄影机内的数字信号处理器(DSP)——传递到存储介质或是监视器上
摄影机输入场景亮度值,输出像素亮度值,之间存在着许多处理
传统的摄影机可以在机内对影像的伽马色彩明暗进行调整,一旦调整了,就会以这种预设记录视频,这个方式被称作烧入,烧入的信号无法还原
拍摄RAW的摄影机,记录在存储介质上的就是原始的电子信号,可以自由调整
一般来说监看的输出信号和记录的输出信号不同,RED的监看信号就是把元数据的16bit RAW 转换成经过白平衡设置的10bit444 1080p。有的数字机会保留光学取景
像素就是单个点的色彩信息,没有固定的尺寸,在电脑上可能很小,在影院就会很大,但是因为观众离屏幕较远所以问题不大,所以相同条件下像素越小画面越清晰
分辨率和像素数量与对比度有关,人眼通过物体边缘的对比来分辨形状和细节,所以对比度越强画面越锐利
以规则的时间间隔对模拟的波形测量,称作采样。相同时间内采样的频率被称作采样率,采样率越高,数字转换就会更精确
奈奎斯特定理:模拟到数字转换过程中采样率必须是模拟信号的两倍以上,这样数字信号才能完整地保留了原始信号中的信息,一般实际应用中保证采样频率为信号最高频率的2.5~4倍,不遵循这个定理,画面边缘会出现锯齿
低通滤波器(OLPF)是用来消除摩尔纹的,摩尔纹的出现原因是混叠(比如人眼的像素点和一些小洞),所以低通滤波器也叫反混叠滤波器。拍摄画面时,每个感光点都曝光成红绿蓝三色之一,摄影机利用插值计算出剩余的信息,所以如果细节比像素更小,而且规则排布时,就无法正确的解读,出现错误的细节,也就是摩尔纹。低通滤镜可以切除高频率的信息,这样也就导致比像素小的细节会被柔化,画面整体锐利程度下降
CCD,也就是电荷耦合器,将光子转换为电荷,再通过电压的变化转换为数字的0和1。(老式的测光表也是这个原理,但是只有一个感光点)
CMOS:互补金属氧化物。比起CCD,CMOS结构简单成本低,耗电少,信号读取快。CMOS上每个感光点都有电荷转电压的电容,所以没有CCD均匀,但是需要的外部电路就少点。CMOS上还包含放大器,噪波校正,数字化电路等等,会减少用来捕获光的面积
感光点就是光子计数器,将不同强弱的光转换为不同的电压。但是只能感知光,无法感知色彩,也就是说记录的是灰度。所以要在感光点上加拜耳滤镜,滤色镜的原理就是挡掉不匹配的色光,所以每个感光点都缺失了2/3的光线,这部分光线由摄影机的电路计算出原色值,使得每个像素都能得到光线的所有信息
感光点不等于像素点,感光点输出的信号被收集在一起后,就是原生的RAW。像素就是对感光点的数据处理后的结果,在显示设备上呈现
每个感光点之间存在微小的间隙,为了不浪费照到间隙上的光线,拜耳滤色片上还会有一个微镜,使光线不照到间隙上,而是被感光点感知
感光点+拜耳滤镜得到的画面就是黑白的影像上叠加红绿蓝小色块。所以还需要去拜耳,也就是deBayering,也被称作去马赛克。在这个过程中,每个像素的颜色会通过插值算法重新计算。RED可以选择不同质量的去拜耳。去拜耳的算法会将相邻感光点的颜色混到不同的像素里,所以拜尔滤镜会降低画质
人眼对于绿色更敏感,所以拜耳滤镜是RGGB
去拜耳时,像素颜色利用感光点周围的八个像素点颜色插值计算,所以如果是CMOS边缘的感光点,就没有足够的信息来计算颜色了,这也就是有效像素和实际像素之间的区别
CMOS遮罩后面还有很多像素点,但是它们感知不到光,不过可以感知温度的变化,这些黑色的像素就用于黑平衡的控制
以更高分辨率拍摄,可以重新构图,稳定抖动
索尼F65的CMOS面积并不大,却达到了8K,因为它的感光点之间的间距很小
胶片有不同的色彩平衡,也就是灯光胶片日光胶片。但是CMOS可以随意调整白平衡,这些其实都是对信号的校正,所以RAW可以随意调整白平衡(1700K~10000K),白平衡就是数字摄影机对红绿蓝三种信号的增益(放大量),比如3200K时,蓝增益比红强。5600K时红增益比蓝强
爱丽莎在3200K~5600K之间的噪波都很小,数学理论上来说,5600K的噪波是最低的
传感器的大小决定了景深和清晰度,和像素数量无关,比如手机像素高传感器小,所以手机的像素点更小,间距也更近,每个像素点能收集到的光就更少,而且更容易受相邻像素点的干扰,噪点也就更多。像素点越大,动态范围也就越大
因为CMOS不用像胶片那样一帧一帧物理移动,所以物理快门并不是必要的。普通CMOS并不是整个画面同时曝光,而是自上而下或自下而上的扫描影像,这种卷帘快门会导致果冻效应或是闪光不同步。如果添加一个物理快门就可以避免这种现象,因为不曝光的时候就被挡住了,物理快门也就是叶子板,其实是一个反光镜,遮挡的同时会把图像呈现到光学取景器上。所以如果加了物理快门的CMOS,就可以多加一个光学取景器。还有一种方法就是全域快门,所有像素点同时感光。卷帘快门是边感光边读取信息,全域快门是感光结束后再读取信息,这也就不会有运动失真
任何电子设备都会有噪波的存在,暗部噪点多的原因是,实际图像的亮度越低,信号就越弱,画面和噪点就无法区分。由此会导致曝光不足的画面里充满噪点,画面的细节会被噪点覆盖,也就是说,阴暗的画面,噪点就会高
当使用增益,也就是电子放大时,也会出现噪波。比如高感光度,曝光不足,后期补偿,或是白平衡的色彩补偿(某个色彩通道信号放大的比其他通道更多)噪波的测量标准是信噪比,也就是信号和噪波的比值,信噪比越大画质越高
ISO代表着需要多少光来产生一个可接受的图像,摄像机有一个原始感光度,这只是CMOS的设计参数,用来界定摄影机再没有增益的情况下理想的曝光量,而增益,也就是影像信号的电子放大,当用分贝(dB)来描述增益时,每6个dB代表着曝光翻倍,也就是一档光圈,所以2dB=1/3挡光圈
当把影像信号的电子放大后,噪波也会被放大,前期高ISO比后期提高ISO噪点更少,因为前期放大的环节比后期放大少,高ISO还会导致动态范围变小,降低画质,因为增益会让原本快过曝的信息失去细节
对于RED来说,原始感光度只是一个建议使用的起点,这一起点是在暗部噪波和亮度细节之前求取平衡的。对于拍摄RAW的摄影机,ISO的改变是记录在元数据里的,真正的曝光变化发生在后期
示波器上可以看噪波基底,也就是底部的厚度,也就是死黑的电波水平。其实和录音的底噪很像,这就是示波器检查噪波的方法
当感觉某个ISO设定的噪波基底不错时,可以装上镜头,让画面曝光不足,观察暗部的噪波来确定噪波水平,如果噪波水平还行,那这个ISO对自己而言就能用了,ISO的选择其实就是噪点大到能被察觉之前的最大ISO
有些ND滤镜只能削弱可见光,对红外线的阻挡较小,这也就会扩大红外线的占比,让画面出现红外污染。UV紫外线滤镜,IR红外线滤镜
索尼CineAlta系列指的是数字电影机型,包括F65,威尼斯等等
电影机对图像的控制不是作为信号的一部分来记录的,而是与视频流分开记录,这部分被称作元数据,也就是关于数据的数据
元数据不会去改变视频,只是给视频加了注释,剪辑软件接收到视频后,就会根据这些数据进行调整。这种数据和视频分开记录的格式,被称作RAW。当然元数据里的有些也是不能更改的,比如帧数,位深,快门
RAW不是真正的视频,只是未被处理的电子信号。信号在处理过程中随时会被压缩,所以RAW和是否被压缩没关系,比如常见的对数编码
RAW意味着来自感光点的被保存起来的实际RGB数值,他们没有被转换为像素,也没有去拜耳。当对它进行去拜耳后,它就不再是RAW,比如ProRes
对数和线性并不是RAW的标签,它们只是对亮度信号的一种调整,线性是完整的保留亮度信号,对数则是在人类视觉上无损的情况下最大限度地压缩亮度信号
判断一段素材是否为RAW的唯一标准是他的色彩信息是否处于未去拜耳状态,并不是所谓的完全还原传感器信息,任何信号都是原生的。信号可以被施加伽马曲线,可以被对数或线性调整,可以被压缩,可以调整ISO。但是只要没有去拜耳,它就可以被称作RAW,RAW也被称作数字负片,曝光完成但是未被冲洗,烧入的过程就相当于显影
RAW的目的是以信息的最小损失来保存直接从传感器发送来的信号,以及其他元数据,包括光圈焦段时间地点
RAW在能被编辑和观看之前,都要进行解码。不同厂家研发的RAW没有统一的标准,比如R3D,ARRIRAW,DNG.DNG是基于TIFF格式研发的,几乎没有被压缩,因为各个厂商希望将自己的专有信息保密,因此不愿公布自己的RAW内部工作方式,所以RAW的统一迟迟不能完成
拜尔滤镜下,CMOS的颜色信息都是RGB,RGB信号每个通道都包括亮度信息和色度信息。色彩学家发现,人类视觉获得的大部分信息都来自于画面的亮度信息,并且更关注色度信息中的绿色
色度抽样就是YCbCr,4:4:4:4,第四个数字代表的阿尔法通道,包含的是透明度的信息,这意味着色度通道没有被压缩。422 10bit 的传输有效比特率为210Mb/s,411,420传输的有效比特率都是125Mb/s
UHD超高清
最初定义分辨率都是用垂直方向像素点,比如720,1080。但是因为视频的宽高比经常改变,现在都使用水平像素点来定义分辨率,比如2K,4K。在电视,广播,蓝光盘通用的画幅标准是16:9
分辨率是否足够和播放设备的尺寸也有很大关系,以及观影的距离,最佳观看距离是屏幕高度的2倍
位深表示用来记录每个像素的层次有多少阶
比特率是衡量每秒可以传输多少比特数的指标
蓝光一般都是8bit
最早的电影拍摄是14-18帧,那时的机器过胶片都是摇曲柄的,也不准确。后来同期声的出现,促进了帧数的标准化,为了让声音和画面同步,摄影机和放映机最后恒定24帧。而电视的25帧、30帧,主要是和当地的交流电有关,美国60HZ,欧洲中国50HZ。日本关东50hz,关西60hz
美国的30帧在电视上播放会出现色彩干扰,于是跳到29.97帧。由此导致的结果是24帧的胶片转换成视频后就是23.976帧
胶片电影的放映机有个挡片,会断开每一帧,所以电影院看胶片电影其实是48帧,只不过有一半的帧是重复的
对数能在表格上压缩大量的数字,现在数字视频压缩都是使用对数,肉眼也是以对数方式工作的
毫秒是一秒的千分之一
分贝是一个对数量,从10分贝增加到20分贝等于把功率从10增加到100,从20分贝到30分贝等于把功率从100增加到1000
波形图显示视频信号的振幅,也就是信号的亮度
监视器小了,焦点容易看不清
示波器商单标尺线,IRE其实和电压的比例一样,就是数字信号有多少电压。100IRE对应0.7V,IRE一般用来表示视频信号水平。有些示波器在纯白和纯黑以外还有波形
示波器一般是用来判断曝光,很少使用色度示波器
一般来说Y代表亮度,C代表色度
最基本的波形图校准,就是用彩条信号来测试,看波形是否在正确的刻度上
一般来说,示波器最好是在信号分路的第一个设备,线路最末设备的输出端要用75欧姆阻抗,防止驻波
多机拍摄时,同步很重要
早期的NTSC视频里,设计师发现电视不能正确的显示纯黑,所以把纯黑设置在了7.5IRE,在数字里这点不再被需要,变回了0IRE
有的示波器会有110IRE和120IRE,这被称作超白区,也就是比纯白更白,比如金属反射的高光。我们在示波器上看到的白色并不是100IRE,实际上是在75IRE~85IRE之间,100IRE其实是高光
8bit的视频中,黑到白是0~255,单纯黑不是0,而是16,尽管它在波形上显示是0.纯白也不是255,而是235,在波形上显示100.
示波器的RGB并列功能可以判断色彩是否平衡,也能观察个别颜色是否被切割。还有一种很少见的Ycbcr模式,其中cb cr是减去了亮度信息的蓝红,只留下色度信息,很少使用
相位就是色调,色调被表示为一个色轮。相位就是指色调在矢量仪上的相对位置
矢量仪只测量色彩信号,往往和示波器配合使用。矢量仪显示的是色轮,位置被称作相位。3点钟方向是零度。逆时针方向,品红是60°,红色是105°,黄色是165°,绿色是240°,青色是285°,蓝色是350°
相位和色轮之所以存在,是因为数字的准确性。就好像浅黄色这种描述太笼统了
相位的方向代表色调,长度则是饱和度和明度,所以有时候矢量仪并不是绝对准确,一般来说是饱和度
旧式的SMPTE彩条图,长条是80%的灰,和其他75%的原色补色彩条。在这个色彩序列中,蓝色是每个彩条的组成部分。红色在其他彩条中要么存在要么不存在,绿色只存在左边而不存在右边,因为绿色是亮度的最大组成部分,这也就有助于阶梯图案的形成,在示波器上观看时,长条的电波是从左到右均匀下降的
校准色度的原理是长色条的下方,黑色色块一列的长色条是没有蓝色的,所以会显示纯黑。另外几条长条和短条的蓝色亮度是一样的,所以会融为一体
短条的最下面一排是PLUGE(灰阶)序列
校准亮度:观察彩条右下方的三个黑条,亮度值从左到右分别是-4IRE,0 IRE,+4IRE,如果0IRE是纯黑,那么-4IRE也是纯黑色,所以可以调整亮度,直到-4IRE和0 IRE两条没有差别,屏幕的亮度就准确了,当然,+4IRE和0IRE需要有一些差别
校准色度:将监视器切换到BLUE ONLY(仅限蓝色)模式,应该可以看到四个连续的蓝色条状区域,由三个黑色条状区域分隔,每一个蓝色条状区域下边都有一个小的矩形区域,通过调整色度和相位,让这些小的矩形区域的颜色与上面的条状区域颜色一致
灰阶位于红色长条下面,由三个小垂直条组成。右边是浅黑,中间是纯黑,左边是深黑。灰阶会影响画面的影调,当监视器调整合适后,左边和中间要一样黑,右边和中间要有区分,由此调整好监视器的亮度水平。有的灰阶是-4、0、+4。有的灰阶是-2、0、+2.看不同的准确度需求,后者比较难调
校准探头可以直接校准监视器
其实现代摄影机检测说到底就是校准色度后,将纯黑和纯白色快调到0IRE和100IRE就行,或是让+2%色块和0%色块混在一起,但能分辨出+4%黑块
示波器就是波形图和矢量图
切割意味着监视器达到了饱和水平,不能再显示往上的白色等级。切割的状态就是信号在顶部变成平坦的直线。可以切割亮度,也可以切割色度,因为有时会因为某个通道的色度过饱或曝光过度。监视器的LUT可以让信号看起来被切割了,但实际上不一定
信号超出切割点的部分无法再被设备处理,超出的部分也没有了信息。当然有时候的小部分轻微过曝有可能是艺术手段,场景的曝光值一般由人脸肤色决定,画面中如果有小块高光可以忽略
数字对高光的处理不如胶片,这也是胶片一直没有被淘汰的原因。保护高光不过曝,也是示波器最大的作用
欠曝的部分被称作破碎,和切割一样,破碎会把欠曝范围压缩成很小的区域
随着曝光参数的变化,影调波形不会均匀不变的上下移动,影调之间的间距会随着曝光升高而变大,直到过曝。过曝是拉大,欠曝则是压缩
输出信号的色彩空间不同,矢量图的显示也会不同
矢量仪上有为三原色和三补色落定位置的方框,如果测试彩条时,线迹是呈现旋转性的偏移,说明相位(色调)有了偏差,如果他们离中太近或太远,则是饱和度出了问题
当摄影机对准灰卡或者白卡时,因为真正的中性测试卡在任何方向上都不会偏色,所以在矢量仪上显示就是中间的一个点。如果点不在中间,就说明偏色了
泰克示波器当画面色彩超过指定色域时,会出现箭头。还有特殊的菱形显示。菱形的边缘有虚线。如果是灰卡,线迹是一条垂直直线。如果线条向左弯,说明图像太绿了;如果线条向右上方弯曲,说明画面太蓝;如果线条向右下弯曲则是太红。如果测试的是黑平衡,正确的黑平衡会在两个菱形的连接点显示一个点
亚当斯把黑到白的灰阶分成0~10,总共11个区域。0和10是理论上的纯黑纯白,但是1和9是现实里的极限值,2~8则是灰度区域,在这个范围内细节最丰富。区域5则是中间灰,因为人眼是非线性,呈对数。我们观察到的亮度的增加是不均匀的。其实这种非线性变化适用于人体的大多数感知能力,比如分贝也是对数单位,但是不同的感知能力伽马不同,所以也不一定会和视觉的特点一样,有的是对数有的是指数
要用灰卡而不是白纸调整白平衡,因为白纸的白其实分很多种,而且上面有漂白剂什么的,会干扰画面的颜色
灰卡检测曝光时,把灰卡的曝光置于示波器的中灰上。再看矢量仪,是否是中心的一个点。有时摄影可能希望后期要把画面压暗一档,那就拍过曝一档的灰卡
在示波器上,中灰并不是落在50IIRE的位置。在使用了对数编码或伽马矫正后,中灰会落在38~46IRE之间。在REC.709的标准中,中灰的位置是41%。因为视频信号的亮度不是线性的,对数编码的信号,被各种方式处理,目的是为了扩大动态范围,由此也导致中灰值被向下推。之所以不是固定值,是因为不同厂家在处理信号时用了不同的算法
事实上中灰在测光表上是12%~15%,但18%已经成了参考标准
ChromaDuMonde 测试卡包含了11个灰阶和18个色彩方块,其中包括原色补色肤色。中间的是卡维黑色,是一个洞,里面是黑色天鹅绒,可以达到0IRE。其中肤色块在矢量图上的位置都差不多,说明虽然肤色有很多种,但色调都差不多,主要是亮度不同。这张测试卡是光滑的,使用时要小心反光和眩光
DSD FH测试卡也叫双螺旋测试卡,用来测试焦点
3-DZ测试卡用来测试摄影机是否对齐
4-Xyla-21背照式测试卡能够测21挡动态范围,阶梯状的亮度设计,也是最常用的动态范围测试卡
测量分辨率的方法最广泛的是拍摄一些彼此之间大小和紧密程度已经被量化的线组,判断由被测设备所获得的该线组的中对应的线组是否可以被明显的分辨出,简单的说就是镜头的分辨率可以用它每毫米能分辨出多少线对来量化
不仅要在画面中心测量分辨率,因为镜头在这个位置通常表现得最好。还要在画面的角落和不同的光圈测量分辨率。镜头通常都有最佳光圈。
肉眼的动态范围大概在20挡左右,也有一种说法是肉眼只有6.5挡,剩下的靠瞳孔大小改变和柱状细胞锥体细胞补充
动态范围是传感器饱和时的曝光量和噪波完全填充的最低档的曝光量之比,也就是最亮和最暗的比值
不只是摄影机,也要注意监视器的动态范围,所以还是要靠曝光工具
以前电视机的动态范围很小,所以拍摄的节目光线都很平,这是技术的局限性。早期的三棱镜摄影机拍摄彩色电影也是一样的情况,画面都是顺光照明,非常的平,对比度很低
过曝也被称作满势阱容量或传感器饱和,就是每一个感光点(势阱)吸收了它所能容纳的最多的光子
理论上来说,真正意义上将实际场景转化为画面的记录方式应该是线性的,当然现在的技术做不到
胶片曝光曲线是S型的,这意味着现实场景高于一定亮度后,再逐渐增加亮度,在摄影机上的画面,亮度增加的越来越少,最后被压缩成纯白。这被称作肩部,趾部也是如此,刚获得少数光子时,银晶体不会做出反应,而是积攒了许多光子后才能开始化学变化,所以一开始的成像亮度增加的很少。就像是推一辆车,一开始让它动起来很吃力,但是如果轮子转起来了,推车的就省力了
胶片曝光曲线和人眼成像的规律类似——压缩了高光和阴影,这是肉眼对影调差异最不敏感的部位,也能降低这部分的反差
在胶片中,伽马是曝光曲线直线部分的斜率。越陡峭的直线说明视频的亮度差距大于场景,也就是反差越大,所以增加伽马就会使反差增大
在视频中,伽马是一个幂函数,是一条曲线。可以向上弯,也可以向下弯,但不是S形。伽马小于一,曲线向上弯,对暗部敏感。伽马等于一,这是一条直线;伽马大于一,曲线向下弯,对亮部敏感。对于相同的信号,通过改变曲线,就能改变像素的亮度
早期的电视是阴极射线管CRT显示器,CRT 是把电能转换成光能的一种设备,CRT的特性决定了从电压到亮度的转换是非线性的。工作的原理就是伽马曲线,它们显示的红绿蓝是非线性的,平均伽马大概是2.4
人眼以非线性的方式感受亮度,人眼的伽马值大概是0.42,是一条向上弯的曲线,刚好是2.4的倒数。所以CRT才能正确的还原现实的颜色。所以工程师想到,摄影机要在前端进行伽马校正,才能让电视正常的显示画面。也就是说摄影机的伽马要是CRT监视器伽马的倒数,两者相互抵消。但是现在生产的LED,LCD,OLED显示器已经不像CRT一样自带伽马了,所以要给它们增加一个LUT,才能完成对摄影机伽马的校正
Rec.709是一组规范,定义了1080的传统高清视频。它包括了色彩空间,伽马曲线,画幅比。Rec是recommendation 建议 的缩写
Rec.709的特点就是what you see is what you see,即所见即所得。它被设计成显示参考,这意味着从摄影机传感器出来的反差范围被映射成一种标准的反差范围,来适合指定的显示器。正因如此Rec.709的色域和动态范围很小,不过当时的显示器色域也很小
Rec.709会重新定义画面,所以它会影响伽马和色域
Rec.709的曲线向上弯,和肉眼的曲线差不多,但底部有一个小的线性部分,斜率为4.5,因为如果曲线底部不是线性的,当相对光强接近0时,曲线接近垂直,这意味着将在场景的黑暗部分造成无限增益和噪声,这点和S形的胶片差别很大
不同厂商的摄影机,Rec.709都有所区别。但是监视器都是符合Rec.709的伽马标准。在拍RAW时,Rec.709模式观看下的画面只是实际信号的近似值。Rec.709只有5挡动态范围
有些摄影机可以直出Rec.709,但如果不在后期校色的话,就不会所见即所得,但这种素材在Rec.709的监视器上可以直接观看
为了让摄影机直出Rec.709时不牺牲过多亮部信息,ARRI出了Rec.709的LCC曲线,可以减小Rec.709的反差,增加动态范围
实验表明,人眼对亮度变化的分辨率是有限的,当亮度变化达到 1% 时,人眼才能感受到亮度的变化。所以在对数字影像编码的时候,所有相邻的编码值的亮度差必须小于 1% 才能保证数字影像的均匀平滑,否则人眼将识别出像素间的亮度突变,过渡就不平滑
若我们采用 8bit 线性编码,在 0~255 的亮度范围内,以 100 为界将编码区分为两个区间:由于 100 以下的编码值每增加 1 ,其亮度变化必定大于 1%,不能使人感受到平滑过度;只有 100 以上的编码才符合人眼的特性。但是如果编码高了,比如200到201,人的肉眼无法区分两者的亮度,那么这样就会造成编码的冗余,浪费了存储空间
而且如果每个编码只算1%,那8bit的宽容度只有1挡,也就是2.55倍的亮度差。即使是12bit,也只有40.96倍的亮度差距,也就是五档宽容度
处理这个问题有两种方法:1.使用高bit的CMOS,但是效率太低 2.让高亮度的相邻编码之间差距变大,让暗部的编码差距变小,说到底就是为了适应人眼对暗部提升敏感,对高光提升不敏感。这就需要用到伽马或对数
一般来说,摄影机伽马都是设成0.45,如果伽马增加了,曲线会向下弯,反差就会变大。如果伽马减小了,曲线向上弯,反差就会变小
大多数摄影机的拐点控制都分拐点和斜率,斜率是曲线在肩部(虽然曲线形状和胶片不一样,反正都差不多)倾斜的角度,也就是高光的细节。斜率越大,角度越大,对比度就越高。斜率越小,对比度就越低。调整斜率也就是一般是用来配合场景里的明亮高光,降低斜率就能让原本被切割的高光平滑过渡,就相当于让拐点的曲线变平
拐点选择则是可以调整在曲线的哪个位置出现坡度变化,也就是改变拐点的位置,这个功能一般不用
高光的斜率叫拐点斜率,阴影的斜率叫做黑伽马。黑伽马调整一般分为范围和等级,范围的宽窄就是黑伽马定义的黑,宽范围,那就会定义到阴影的灰,窄范围则会让黑伽马只调整阴影里的阴影。等级就是黑伽马的强度,等级越低,阴影就会越黑
改变拐点和黑伽马的效果可能还不错,但是总的来说也只是个小调整,有时候也会不太自然。很多厂家都开发了各种伽马,比如HyperGamma、CineGamma、Video Rec、FILM Rec或低反差曲线等等,设计的目的就是为了扩大摄影机的动态范围。动态范围越大,曲线越平坦,反差就越小
当拍摄RAW时,伽马只是元数据,并没有参与改变影像,直到伽马被烧入,伽马烧入的过程是必须进行的。比如RED有REDGamma2、REDGamma3和对数版本的REDGLogFilm。这些配置文件,用于监看以及在将RAW文件导入调色软件时转换,它们为成像提供了起点,并为后期制作过程提供了指导
RAW简而言之就是感光点的点数据,还没有进行去拜耳,所以RAW没有办法用监视器直接看。但这不代表RAW就不是视频,RAW是需要转换成视频才能看见和使用
无压缩的RAW数据是以线性记录的,虽然线性视频几乎不损失数据,具有非常高的后期空间,但是其也有很明显的弊端。除了在曲线的顶部和底部可能丢失数据外,线性视频在每档使用比特数方面效率极低,因为高光的大部分采样点都是浪费的,而且高光占据了绝大部分的编码,因为他们处于2^的后半部分,这也是向右曝光的由来——要把尽可能多的信息塞到高光区域,因为那部分的编码更细腻,每挡的编码数量更多,挡靠近动态范围底部时,记录每挡光线变化的编码数量越来越少,离噪波基底也就更近
总的来说就是线性记录光线挡位变化,也就是2的几次方,如果每一个编码都代表前进一个数字。那高低挡位的编码数量差距太大了。这不仅仅是对拐点和黑伽马进行弯曲就能满足的,所以,需要对编码进行对数处理
对数和伽马一样,都是减小了曲线的斜率,来扩大动态范围,原本被切割的高光也会被留下来(/和(顺时针旋转一点)x轴越长,宽容度就越大
但对数和伽马还是有区别的,对数就是对数曲线,伽马是幂函数,两者是数学上的区别,对数和伽马不同,y轴的间距不是均匀的,这也处理了高光编码值浪费的问题。对数和幂函数曲线看着像,工作方式也像。但两者还是存在区别
上世纪90年代,柯达开发了把胶片转换成视频的系统,这个系统被称作Cineon。这个系统可以用10bit的对数文件把一帧胶片的影像完整捕获下来,系统将胶片扫描成与原始胶片密度相对应的 Log格式,这种方式是胶片转数码储存最优化的方式,它的目的是作为一种数字中间片(DI),而不是用于放映或特效。因为它起源于胶片,所以整个系统都参考了胶片密度数据
因为胶片的S曲线,能容纳的高光宽容度很多,记录的场景也就可以更亮
对数编码的视频在监视器上观看时,因为压缩了场景的亮度来让它们更有利于记录,所以画面会很灰。因此需要给监视器加上lut。也有的摄影机可以输出709的监看线路,但对记录的文件没有影响。对数的图像不仅仅是暗淡和低反差的,示波器和矢量仪也无法显示的精确,曝光工具也无法正常工作
对数和RAW是两个不同的东西,只是许多拍RAW的机器记录的是对数编码的数据,不同的厂商有不同的Log
S-Log的编码值永远达不到黑和白的极值,所以S-Log看起来很平坦,场景中正常的阴影值永远达不到纯黑,所以画面看起来会有点亮。S-Log3 相比较S-Log2可以更好的展现阴影或中灰阶的层次,更加接近胶片。在多数情况下推荐使用S-Log3,但是如果要对中灰阶至高亮部分提供充分的细节,则可以选择S-Log2。纯黑在S-Log2上是3%,在S-Log3上是3.5%;18%灰在S-Log2上是32%,在S-Log3上是41%;纯白在S-Log2上是59%,在S-Log3上是61%
S-Gamut是S-Log专用的色彩空间,比DCII-P3更大,现在常用的是S-Gamut3和S-Gamut3.cine,S-Gamut3会使原始绿色偏移,因为SGamut3的原始绿色与Rec 709的原始绿色不匹配。S-Gamut3.cine的色域略有减少,但绿原色旋转到与Rec 709和P3看齐,所以当色域收缩时,绿色再现非常准确
ARRI的LogC是基于Cineon密度曲线的,C即是Cineon,整体形状和胶片负片的曲线很像。当然因为传感器不一样,色彩还是会有所区别。Log C曲线是场景的对数编码,这意味着在很宽的动态范围内,每一档都会增加相同数量的信号。
ARRI的LogC不是一个单一的函数,会基于不同的EI(曝光指数)改变,所有曲线都把18%灰映射到了400的编码值。LogC曲线的最大值取决于EI,因为镜头缩小光圈时,传感器就能捕捉到更多的高光信息,所以LogC最大值会增加。EI值高于1600的曲线(包括EI 3200曲线)有一个额外的肩部,来将Log C编码的最大值保持在可用的输出范围内。改变El值不会改变动态范围但会影响总范围在中灰上方和下方的分布。对于可能需要适应高光或阴影中存在一些关键细节的场景的摄影师来说,这可能是一个有用的工具,简单地说就是亮场景高EI,暗场景低EI。ARRI自称自己这改变EI不改变宽容度的编码是独一无二的
C-log3与C-log2 从中灰到高光一致,C-log2高光部分可以更多,但是显然目前还没有达到(有一部分是虚线) C-Log2有更好的灰部和暗部细节表现,但有些场景会产生明显的噪点,需做降噪处理,这一点,Canon Log 3 对暗部表现加以改善,采用可调整过渡变化的简易调色伽马,使噪点不易产生,与C-Log2 相同,选择C-Log3 后,ISO在 100~800 下,动态范围可达 200%~1600%,在 ISO800 以上则可升至 1600%。(Canon Log 3 相当于13档范围)
Red使用RedCode编码,文件拓展名是r3d,是RAW格式,是一种可变比特率的有损编码,压缩方式是帧内压缩
RED的伽马设置可以用其他影调曲线组成,比如能让高光和阴影更柔和的过渡到纯黑和纯白的S形曲线
REDCode Raw能存储传感器每个颜色的通道信号,更有利于后期。REDLogFilm是一种对数编码,将原始的数据重新映射到标准Cineon曲线上,由此会产生反差很低的图像,以较大的宽容度保留了数据用于后期
18%灰的反射率是感觉上的中等灰度。事实上照度表是以12.5%来校准的,而亮度表是以17.5%来校准的。所以最初用测光表测灰卡,应该在曝光指示值上加0.5挡。后来这条规定被改成“把灰卡紧靠被摄体后,方向朝向主光和机器中间”因为余弦定理,保持会卡顿角度在可以降低卡反射率的地方,相当于给测光表加了0.5挡的曝光
示波器读取中灰是一个复杂的问题,在Rec.709中,18%灰在41%的位置,但这是在假定纯白的反射率为100的前提下,并将纯白置于100IRE.但是现实里反射率最高的东西也只有90%,如果把90%反射率的放到IRED100,那18%灰就是在43%IRE,因此需要能将100%反射率也能纳入动态范围的伽马或Log
RedGamma3的中间调细节比RedLogFilm和Cineon多,但是暗部和亮部的细节没他们多,放在编码上来说就是RedGamma3的编码分布不均匀,中间调最多,高光和阴影少。RedLogFilm和Cineon的18%灰在44IRE上
Arri的LogC是一条非常平坦的曲线,100%反射率的级在75IRE
RED和ARRI的709不是真正的709,它们的709宽容度更大
对数记录的目的是将高光值向下推到可以被记录的位置,并把最黑的值置于噪波之上。所以每个对数Log的90%白都在60左右,为高光记录留出空间,不同厂家的Log不同,同一IRE的亮度也自然不同
因为杆状细胞(黑白暗视觉)和锥状细胞(彩色视觉),人类在不同亮度的环境下,对饱和度和反差的感知能力是不同的,就像正午时饱和度高,夕阳时饱和度低
在胶片中感光度被标定为ASA,这是美国标准。后来国际化标准下感光度就成了ISO。感光度就是传感器感知光的灵敏度
ISO和EI的区别是:ISO表示的是CMOS的灵敏度,通过改变传感器的电压来改变增益,也叫模拟增益.不同挡位下的ISO信噪比不同,而且对光线的响应曲线也会轻微不同,这会影响到反差和动态范围。 Ei只影响监视器亮度,不对素材造成影响,实际素材的iso始终保持在设置好的原生iso下,Ei影响高光和暗部档位是通过改灯光和ND滤镜带来的结果,改ei参数本身并不带来档位变化,比如一个暗的场景,使用低EI,监视器暗了,想再调亮就得给场景加光,这时场景的灰点就向上移动了,所以CMOS能记录的场景暗部就比之前的同一个场景多了,所以动态范围就相当于在之前的CMOS水平上向下移动了
RED的ISO就相当于是亮度LUT,也就是EI
其实所谓的修改亮度也就是修改灰点的位置
索尼S3 S-Log3的基础ISO是640,FX6是800
f光圈=F焦距/D入瞳直径,这样出来的f光圈忽略了镜片对光线的透光率。T光圈则是在光学工作台上对镜头实际测量得出的
H&D曲线,胶片响应曲线,说的都是S曲线
所谓的曝光就是调整场景的明暗范围到传感器的动态范围上,如果场景的明暗范围大于传感器动态范围,那就要人为的减小场景的明暗范围
正确曝光下,场景的色彩才能被准确充分的再现,这儿对于拍摄绿幕很重要,所以绿幕的光线要均匀,正确曝光
错误曝光下,切割的高光和破碎的阴影都是无法被调回的,因为它们的信息消失了,它们只会呈现死白和死黑,不存在过渡
曝光关键要看示波器,有些小监上显示过曝或死黑的细节,但其实还在宽容度内
正确曝光的关键就是要让场景中的18%灰反射体在示波器上处于默认位置,其实就是重现场景反射率
入射式测光表测量的是场景的照度——有多少光照射到场景上
入射式测光表很容易读取逆光和侧逆光,所以必要时要对大型的光源进行遮挡。测量主体照度时,把测光表放到物体的位置(一般是人脸附近),将漫射球朝向摄影机,并遮挡逆光。测量光比或者单灯照度,一般使用平面漫射球
反射式测光表就是点测光,测的是物体的亮度。大多数时候,点测光是用来检查场景中的细节,比如高光和阴影
最简单的解决场景动态范围大于传感器动态范围的办法,就是修改构图
使用示波器的诀窍是要在画面里设定一些可以使用的参考,就是在场景里选择一些重要物体,并让他们落在想要的波形位置上
一挡曝光变化在示波器上的波形变化间距是不固定的,高光和阴影的曝光变化比起中间调,在波形上引起的信号改变要小一点
因为对数编码记录信号压缩了高光,所以18%灰 位置并不在50IRE,看各家厂商的Log
斑马纹只是了场景中的一个特定IRE值,一般是用来显示过曝区域。还有这一种用法是一组斑马纹显示中间调,另一组显示过曝区域。使用斑马纹的关键就是它们所指定的IRE值
直方图就是影调分布图,横轴是由暗到亮,纵轴是像素由少到多。一般来说正常的场景,合适的曝光直方图是不会特别偏向一边的,不要让暗部或亮部被推到两端的极限位置,不然就是欠曝或者过曝。直方图两边高中间低对比度就大,两边低中间高灰色就多,对比度就小。直方图主要用来看影调和对比
RED的球门柱不受画面和感光度的影响,代表的是RAW的数据。因为希望影像像足球一样射入球门内顺利曝光,所以用两根球门柱立在直方图两侧,球门柱上红色的高度反映了过曝或欠曝像素的比例,最大比例代表了整个画面像素的1/4,一般来说,左门柱可以被推到50%左右的高度,产生的噪波还是可以接受的。但是右门柱有一点红色也不行
RED的交通灯其实和交通没关系,指的是红绿蓝这三个通道,防止某个通道过曝。当某一色彩通道大约2%像素被切割时,该通道的灯就会亮起。比如一个人只有脸过曝了,这时候右门柱可能会很低,但是红灯会亮起,交通灯和球门柱的互相配合,当然肯定不如直方图和示波器详细
假色最常见的就是用来确定主体的曝光,一般只在决定曝光或打光时使用,假色越蓝越黑,越红越亮。假色的绿色不是中灰,比中灰高,一般把肤色曝光与绿色和粉色之间
假色和斑马纹都是基于IRE或RGB值的,而IRE或RGB值是基于摄影机发到监视器的输出信号,RED小监开了RAW模式后,假色IRE是基于RAW的信号,所以会更准确。RED的曝光假色是基于RAW,监看模式基于IRE,也有一种说法是RED的绿色基于18%灰
ARRI的假色,绿色是中灰(38%~42%),品色是白人肤色(52%~56%)红色是白切割(99%~100%),紫色是黑切割(0~2%),略低于白切割,也就是高光极限是黄色(99%~97%),略高于黑切割,也就是阴影极限是蓝色(2.5%~4%)
RED的Gio Scope相当于一个假色挡位选择器,可以选择任意挡位的假色,也可以全开,这样就可以知道场景里宽容度内的景物都处于什么亮度,比如第十挡(一共16挡)的绿色就是肤色曝光值
RED可以用假色确定好曝光后,再调整EI.比如拍摄暗调场景,用明亮的灯光给场景足够的照度后,用假色确定各物体曝光是否正确,再调低EI,观看暗调的画面,和对比是否合适
FLUT是RED特有技术,也叫浮点LUT, FLUT 的工作原理类似于传统的 ISO 设置,但可以在后期制作中进行微调,从而达到任何级别的曝光精度,而不会导致切割。FLUT 是以曝光挡位量化的,一个1.0的FLUT相当于开大一档光圈,0.3的FLUT相当于1/3挡光圈,FLUT在提高曝光的同时,如果原本在宽容度内的高光要溢出了,FLUT会压缩这些高光到宽容度以内
噪波基底和死黑是不一样的,噪波基底是CMOS没有反应光的情况,这种情况下,依旧会有一些电量输出,CMOS所有地方都存在噪波,但是它在黑暗的区域最明显
死黑和过曝的区别是,噪点是逐渐增加的,但是切割会很突然
在拍摄RAW/Log时,709的波形就没有多大价值了,可能709切割的地方在RAW里还是动态范围内的,但是至少709都能接受的画面,那RAW就一定在宽容度内了,拍RAW时用波形配合测光表也是不错的选择
把纯黑的物体放到示波器上的0IRE上是没有意义的,因为外景中没有真正的黑色,而且摄影机的动态范围在亮部和暗部之间不是平均分配的,一般都是暗部更多,如果一个画面的黑和另一个画面的黑不同,那两个画面的噪点也会不一致,所以拿灰板确认曝光就行,纯黑的物体比如天鹅绒的洞一般用来检测摄影机
可以把90%的白放置到对数曲线45°倾角的地方,超过这点以后,挡位间的编码值差显著减小,也就是高光被压平了
向右曝光的原理是在不过曝的前提下尽量提亮曝光,因为越暗的地方噪点越多,在直方图上就是将整个影像推向右边。但是现在摄影机控制噪点的能力很强了,这么做没必要,而且这么做的结果是每个镜头都要单独调整曝光,而且匹配起来也更麻烦,这个方法适合平面摄影
以前的斑马纹是基于IRE的,拍对数时不准确,这点和示波器一样。不知道现在这点有没有改正
光看监视器的画面是很不客观的,会受环境很大的影像,有的大监视器上有黑色遮罩,有的剧组会用旗板或其他遮光设备来防止监视器上的眩光
要学会经验总结,并在下一次拍摄中改正
使用斑马纹的技巧,将斑马纹设置在100,或是机器的最高IRE,比如佳能95,将光圈开大斑马纹出现,然后收一点直到斑马纹消失。(这不就是向右曝光吗)
HDR的工作原理——对同一场景多次曝光,后期合成来扩大影像的宽容度
RED的HDRx,RED摄影机使用HDR功能之后,每一帧会同时曝光两次,一次曝光正常A帧,一次曝光不足X帧,X帧会降低2-6挡快门速度来保护高光。比如A帧是1/50S,X帧1/200S,就给高光多留出了两档宽容度,在录制以及回放的时候,HDR功能的效果不会显现,需要在后期软件中查看。但是两帧的快门不同,所以运动模糊会不一样,X帧会比A帧清楚点,后期软件可以融合。所以要是参数调大了X和A就不好融合。HDRx也因为这个原因反而被用来拍摄一些需要精确位置的动态捕捉,或是对边缘要求锐利的抠图,或是在室内到外景时的曝光过渡,还有的剧组直接拿更清晰的X帧来做剧照,后期提高亮度就行。HDR模式会增加一倍的素材量
眼睛有作为受体的细胞,和感光点的工作原理差不多。也就是柱状细胞和锥状细胞,柱状细胞对亮度灵敏,也就是暗视觉,柱状细胞只对青色范围波长的光线敏感,这也正是夜景是青色的原因;锥状细胞对色彩灵敏,也就是明视觉,锥状细胞有三种,针对三种不同波长的光线,也就是红绿蓝
在两种视觉系统,以及虹膜(瞳孔)的光圈调节下,人眼有了很大的动态范围
三种锥状细胞感应的其实是长(红)中(绿)短(蓝)三种波长的光线,柱状细胞只对黑白以及中短之间波长的光线敏感,也就是青色
色环就是红和蓝首尾相连形成的圆环,但是红和蓝的波长其实相距很远,所以品色其实是很特殊的颜色,它不像黄色和青色一样是在线性光谱上的
色彩就是不同波长的光线进入人眼后,被锥状细胞感知,将信号发给大脑——这是什么颜色。但是品色是不存在波长的,所以品色是大脑自己发明出来的,也就是当光线进入人眼后,一半由蓝锥感知,一半由红锥感知
蝴蝶在动物界有着最广泛的色彩感知能力
饱和度也被称作色度
色彩模型一般分为两种:HSB和HSL H色相 S饱和度 L亮度 B明度。HSL是锥形,用于色彩调整。HSB是柱形,用于色彩选择
白色在视频上的外观受光线的影响很大,所以需要白平衡来定义白色
阳光是暖色,天光是冷色,两个光线的结合就是日光,广泛定义为5600K
白平衡就是定义所选色温为白光,色温其实就是代表光线里有多少蓝,色温越高越蓝。这样也导致色温无法检测绿光,所以需要补偿,所谓的色温补偿也就是CC
在拍摄RAW时,摄影机内各个色彩通道的增益没有改变,白平衡只影响监看
CIE色度图最大的特点就是各种色调组成的马蹄形状,这个马蹄被称作光谱轨迹,马蹄的中间是一个白点,因为所有光线混合后是白色,马蹄上部分是绿,左下角是蓝,右下角是红,白点下方是黑体轨迹,也就是白平衡,毕竟那里没有绿色了。使用这个系统,任何色彩都能用(x,y)来定义,马蹄图上有肉眼能感知的所有颜色
如果把马蹄增加一个Y轴,也就是(x,y,Y),就会形成一个柱状体,Y就是亮度
人们在马蹄上放置各种摄影机,监视器,投影仪的色彩极限,这就是色域
Rec709不仅定义了动态范围,还包括色彩,它在现在依旧很常用
Rec2020比Rec709色域要宽的多,用于4K和8K
sRGB和Rec709的色域一样,都很小
DCIP3是服务于电影的发行和影院的标准化,色域介于709和2020之间
A(学院)C(颜色)E(编码)S(系统)拥有超宽的色域,已经超出了人类视觉的色彩极限,红色达到了光谱的极致,绿色和蓝色是模拟出来的,无法实现的色彩
O(输出)C(颜色)E(编码)S(规范)基于显示参考,用于监看端
色彩的记录是RGB,色彩的转换是由矩阵乘法来完成的,不同的通道信号都由矩阵控制,简单的说就是矩阵能控制不同通道的颜色细节,相当于前期调色。放在摄影机操作上就是色彩通道加减的形式,要注意的是通道只有亮度
矩阵的观看方式是 R-B 前面的颜色只改变饱和度,后面的颜色饱和度和色调一起改变
视频文件的格式很多,但大多有这三点是一致的:1.包含视频和音频的信号2.格式的结构能够容纳这些信号 3.因为信号被压缩了,所以带有编解码器来读取信号
比特率:文件中视频或音频部分每秒的数据量,比特率越高信号质量越好,内存也越大
音频采样率:将音频由模拟量转换为数字量的采样频率
封装格式也叫容器,就是将已经编码压缩好的视频和音轨按照一定的格式放到一个文件中,也就是说仅仅是一个外壳,或者是一个放视频轨和音频轨的文件夹说得通俗点,视频轨相当于饭,而音频轨相当于菜,封装格式就是一个碗,用来盛放饭菜的容器
有些格式用堆栈来代替封装,堆栈就是在一个文件夹里,每一帧都是一个单独的文件,RED和ARRI拍RAW时都是这个格式
AVI——微软windows容器 DVR——微软数字视频 FLV——Adobe系统
MKV——开放容器,对任何系统都不受限
MXF——可以容纳几乎任何类型的数据流,支持元数据和时间码
MP4——基于MPEG-4,后者又基于QuickTime
柯达在胶转磁过程中开发了Cineon(.cin)现在面向电影,代表了一帧的数字化,以洗印密度为基础
几乎所有的摄影机都会在前期对信号进行压缩
无损压缩是通过删除冗余信息来完成的,这是数学上的无损,也是视觉上的无损
有损压缩的压缩比更高,但是画面质量会下降
人类对亮度感知是线性的,而且对亮度更敏感,针对人眼特性的压缩是视觉无损,压缩比无损压缩大,普通观众看不出来。不过这也要看播放设备,手机和影院还是不太一样的
RAW只是没有去拜耳,不代表没有被压缩,RAW的码率也可以很小
ArriRAW是未压缩的RAW,RedRAW会经过小波压缩,bmpcc输出的是DNG,佳能的RAW是未压缩的RAW,比任何独立的RAW都大,每小时能达到1T,即使是F65的RAW也是压缩过的
佳能的RAW会烧入白平衡和ISO,像是半熟的RAW
压缩分为帧内压缩和帧间压缩。帧内压缩就是对每一帧都独立压缩,它们之间没有联系。帧间压缩会将帧与帧之间联系起来,寻找它们之间的不同,并不用对每个帧都进行完全编码和解码,这样可以减少数据量,压缩损失的更小,但帧间压缩对编解码器的处理能力要求更高
帧间压缩可以理解成IBBPBBP这样,B帧就是双向预测的,P是单向预测的
开放GOP就是可以在用GOP结构压缩时,BP会参考其他的I,封闭GOP就是BP只会参考自己的I
编解码器分为压缩和解压
MPEG是视频编解码器,JPEG是图片编解码器
TIFF最初是图片编解码器,现在RAW有时会被转换成TIFF,每帧一个
JPEG2000文件拓展名为.jp2,质量比jpeg好点。但图像的边缘会模糊而不是马赛克
H264是一种帧间压缩编解码器,是BD蓝光的编码标准。在拍摄现场一般用于样片的编码压缩
ProRes 4444 XQ(12bit)>ProRes 4444>ProRes 422HQ(10bit)>ProRes 422>ProRes 422(LT)>ProRes 422(proxy)proxy也叫代理模式或草稿模式
DNxHR 444 出众的图像,特别适合高品质色彩校正和母带后期处理
DNxHR HQX- 增强高品质;精美的图像,适合色彩校正和母带后期处理
DNxHR HQ- 高品质;可实现精美图像与较小的编辑带宽之间的平衡
DNxHR SQ- 标准品质;特别适用于编辑工作
DNxHR LB- 低带宽;特别适合远程工作流程,并且可节约存储;LB 1/4 分辨率和 LB 1/16 分辨率也可用于大多数带宽/空间受限的工作流程。
r3d是一种专有编解码格式的RAW,采用的压缩方案叫RedCode,有许多种压缩比,这是一种有损压缩,虽然RED自称视觉无损,一般是8:1或5:1
CineForm以前是一家独立公司,现在被GoPro收购,CineForm无论是压缩损失,分辨率,12bit,兼容软件等方面都很优秀
索尼RAW存储为MXF文件
XAVC HS(h265),对设备要求高 XAVC S(h264)帧间压缩 XAVC S-I(h264)帧内压缩,文件体积很大
拍HS和S,V60的储存卡就够了,如果是要拍摄S-I,至少要CF TYPE A
索尼一代SD只有一排金手指,二代SD有两排金手指
Phantom芬腾拍摄的RAW文件名是.CINE
CinemaDNG是Adobe的RAW
元数据是“关于数据的解释”,视频文件的标题一般都带有许多信息;拓展名就是文件.之后的部分,比如mov(quicktime)r3d(red raw),有时可以修改拓展名来让软件接受无法识别的格式
当光被记录成信号后,每当我们修改影像,无论是反差色彩曝光什么的,其实都是在对像素点进行数学计算
因为胶片肩部的压缩,也就是S曲线,胶片就可以记录画面里超出纯白的部分
OpenEXR是工业光魔的文件格式,用于特效制作
空域降噪只针对帧内,时域降噪是针对帧间降噪,帧内降噪可能会前后帧的噪点有抖动,亮度阈值简单的说就是控制亮度噪点。如果数值设置太高,会消除一些图像的细节。色度阈值就是控制色彩噪点。同样的数值设置的太高的话,颜色细节也会消失不见。混合数值就是控制降噪的强度。可以把它理解成透明度,越透明影响越小。越不透明,影响越大。动作阈值就是你判断你画面中大概有百分之多少的像素,来判断出我们大概使用多少范围的运动。超出这个阈值的像素是运动的,低于这个阈值的像素是静态的。数值如果过高就会产生运动的残留或者是残影。一般都是先利用空域降噪对单帧进行一个基础的降噪,然后在利用时域降噪把与帧之间的噪点抖动消除,这样的效果可能会比较好
达芬奇的偏移就是将整个色调范围一起调整,调整的是整个场景的水平
LUT,LookUp Table,中文常称为“颜色查找表”其核心思想是用查表来代替计算,只是列举一系列输入与输出数据,这些数据呈一一对应的关系,系统按照此对应关系为每一个输入值查找到与其对应的输出值,这样即可完成转换,简单的说就是把一个颜色换成另一个颜色
1D LUT只针对一个通道,无法进行通道混合,适合调整反差和伽马
3D LUT 可以映射并处理所有的色彩信息,无论是存在还是不存在的色彩,或者是那些连胶片都达不到的色域。3DLUT 每个颜色都是有(R,G,B)三个坐标,所以3D LUT可以转换色彩,饱和度
查找表的作用并不是将RAW或Log视频转换为调色的起点,LUT只是根据使用的监视器将对数曲线转换为伽马曲线,但这么做有可能会造成黑白被切割,或是出现色块,因为色彩空间和动态范围不一样。LUT并不是色彩校正的第一步,校正一般还是色彩空间转换。很多LUT在前期拍摄时只用于监看
那些在机内用于监看的LUT叫做LOOK,LOOK不能用于其他监视器
DIT 数字影像工程师,因为观看条件很重要,有些DIT会在外景的帐篷里工作,旁边还要用黑布围住,DIT主要的工作就是备份转码上传,拍前估计文件大小
DIT手里的素材相当于整个剧组的心血,因为摄影机的码率很大,要拷贝的文件内存也很大;高质量的拷贝校验会重新比对目标和源的数据,这需要更多的时间;DIT也需要对数据进行保存和多次备份,防止各种突发状况,因为内存太大很多时候也不能上传云端,传云的一般都是离线素材,用来粗剪
直接复制粘贴素材可能会造成数据错误,因为WIN复制的目的并不是为了影视专用的。在复制前要进行校验文件,这样拷贝的素材结束后还要生成一个拷贝报告,这很重要。总之DIT做的事除了拷卡和转码,剩下的就是防止撕逼。专业的软件可以暂停备份,也能发现出错的拷贝素材的错误原因
摄影拍完一张卡,就会把卡给到DIT。储存方式分在线储存和离线储存。在线储存就是硬盘阵列,速度快效率高容错率高,缺点是贵重需要额外供电;离线储存就是移动硬盘或机械硬盘。便宜轻笔记本就能供电,但是速度很慢
SMR硬盘也就是叠瓦盘,写入速度会越来越慢。CMR硬盘是垂直盘写入速度不受影响。然而大部分制片都会购买叠瓦盘
DIT要有一个符合自己标准的流程,而且要常做日志,好检查和撕逼
摄影助理做事的方式就是有条理的有计划的去做,而且每次的流程都一样
DIT最糟糕的事就是没拷贝就格式化了,最好整个剧组只有一个人才能格式化,这样能少很多麻烦。可以在拔卡后摄影助理锁上记录锁再给DIT,当DIT拷完以后,摄影助理再打开锁,然后格卡。还有一种很可靠的方法就是贴标签
DIT通常要目视检查每一条素材,当然粗略的看下就行。要去看目标文件的素材,这才是真正到电脑上的数据,也是后续要用来剪辑的数据。一般来说一个素材至少要三次备份,甚至是四次备份
不能内录RAW的摄影机就需要一个外接的记录器,这就是Codex
Cinedeck是一种硬盘录像机
因为数据可能会消失,硬盘的存储介质也会逐渐老化,过个几十年当下留下的格式可能也无法匹配主流播放设备。有些机构使用数字转胶片,胶片在地下室里可以存储几十年
4K拍摄至少需要6G的SDI,SDI使用的是BNC接口
HDMI是消费级的接口,大多都没有锁定装置
硬盘阵列比起读卡器的优点:1.会固定锁死硬盘 2.有独立风扇 3.可以管理硬盘,有容错 4.读写速度非常快 5.容量可以做得很大
NAS是网络共享储存,能让多个人一起使用一个阵列数据,传输速度会被分给其他通道,效率一般,适合用来办公
SAN是储存区域网络,可以把许多个阵列给多个人使用,传输效率高,但是成本也很高
DAS是直连阵列储存,一个人用一个阵列,既能满足速度也能满足容量,但只能一台电脑使用
RAID O,磁盘相加,速度和容量也想加,速度很快,但只要有一给盘坏了,其他盘的数据都会坏
RAID 1,磁盘镜像,其他盘都是一个盘的镜像盘,容量只有一个盘的大小,写入速度和容量都以最小的硬盘为准,优点是很安全
RAID 5,目前最常用的阵列方案,将数据分开存在每一个盘上,但有相互关联信息,至少需要三个硬盘才能组,允许在坏了一个硬盘后不丢失数据,容量和读写速度要减去一个硬盘
RAID 6,至少需要四个硬盘才能组,容量和读写速度要减去两个硬盘,允许坏两个硬盘
传输速度受三者影响:硬盘速度,接口速度,线材。拍摄时硬盘的速度要大于素材的码率。一般来说接口和线材的速度都是远大于硬盘的。但是多盘位的情况下接口的速度可能会不够
usb3.0理论传输速度500M/s,实际传输速度320MB/S。雷电1代、USB3.1传速度是这两倍,雷电2、USB3.2 速度是这四倍,雷电4、雷电3速度是这八倍
DIT估计前期存储要考虑的:摄影机数量,摄影机型号,拍摄格式,储存卡的速度与大小,影片的类型,备份硬盘的速度,素材校检
DIT转码要考虑的:是否要同步声音,加水印,加LUT,转码格式,不同格式的转码方式,时间够不够,电脑配置够不够
有的DIT要观察示波器,注意黑白切割和噪点
ASC CDL:CDL Color Decision List是ASC创建的用于基本颜色校正数据交换的规范。本效果中包含简单的色彩校正和饱和度调整,ASC CDL并不制定色彩空间。相当于让DP把素材最终应该是什么风格的画面给后期,流程上只进行一级校色
工业光魔发现Cineon不适合用来做VFX和CGI,因为Cineon虽然是柯达请色彩科学家化学家心理学家结合对数做出来的格式,但正因为太像胶片了,所以不够数码味,也就是不够干净,于是就开发了OpenEXR
AMPAS美国影艺学院,也就是颁发奥斯卡奖的单位,在随着数字的流行化后,提出要有一个一致的色彩空间——ACES学院色彩,这个色彩空间要能准确的还原场景的每一种色彩,也能让不同设备的同一个画面颜色一样,还要让黑白都保留层次,观感也有更接近人眼。这也就代表DP无法在前期对伽马,色彩进行细节调整了,但能更好的在后期进行调色
ACES的色域非常大,超过了人眼的可见范围
ACES一般分四步:1.在摄影机感光后,生成的数据要用ACES算法;2.色彩校正时,用ACES算法 3.渲染时使用ACES算法 4.视频输出时使用ACES算法
也就相当于ACES对原生的颜色都有唯一的标准,但是二级调色是自由的
元数据包含了信号除了实际影像以外的所有信息。其实就像打板时写的东西一样
打码器上会写:片名、日期、导演、DP、机号、帧数、场号、镜号、是否同期录音(MOS)
带有时码器的场记板可以更好的同步视频和音频轨道,有了时码后,每一个视频帧和音频帧都有了定位
时码的标记都是00:00:00:00 分别是时分秒帧
如果机位很多,又没有时码同步器,那就都设置成时钟时间
现在有些摄影机可以记录焦距,角度,光圈快门ISO,甚至是运动的方向和速度的元数据,这些元数据用于VFX很有用
元数据最大的优点是可以被搜索和排序,这对于剪辑后期和归档的优势是巨大的
不只是摄影机,有些摇臂也能记录元数据,比如倾斜和旋转的角度,用于后期合成,因为这些设备有的有GPS定位,所以还有摄影机高度,位置的元数据
暂完——And1
股票代码:000700股票简称:模塑科技公告编号:2023-022债券代码:127004债
作者:国馆来源:国馆(ID:guoguan5000)做人最忌讳的,便是太有身份感。♬点上方绿标可收听国学文化主播朗读音频知乎上有人问:有修养的人,
宜春市人民检察院起诉指控:被告人李小豹利用担任共青团中央社区和维护青少年权益部部长、维护青少年权益部部长、学校部部长,全国学联秘书长
1月28日,东方证券发布一篇轻工制造行业的研究报告,报告指出,本周木浆系纸品价格基本维稳。 报告具体内容如下: 行情回顾 本周轻工
1、质量和味道2、粤菜讲究品质和口味,口味比较清淡,力求清中有鲜,淡中有美。而且随季节变化,夏秋有光,冬春有丰富,追求色、香、味、形。3
本报讯(记者晴空)为进一步展示推介湟源县地域文化和特色产业,立足青海产品优势和东部地区品质需求,大力支持一颗藤、小茶牧场、六合实体店
中牟就网络举报雅圣思公司有关问题展开联合调查近日,相继有网络用户举报雅圣思教育科技有限公司相关问题,并在网上发文“求救”。关注到相关
在新都,有名“基本称职”的派出所副所长
央行网站消息,为维护月末流动性平稳,2023年1月28日人民银行以利率招标方式开展了2220亿元逆回购操作,中标利率2 0%,与此前持平。央行副行长
1、蔡翰亿是一名演员,主演《江湖话事人》。文章到此就分享结束,希望对大家有所帮助。
1、养料配制。金针菇的栽培由菌丝的发育开始,在种植之前,先要配制好培养料。培养料以棉籽壳为主要原料,加入适量的麦麸、石膏、木屑、玉米芯
大家好,小信来为大家解答以上问题。联通中兴机顶盒遥控器学习按键,联通中兴机顶盒破解很多人还不知道,现在让我们一起来看看吧!1、首先
1、暗夜冰狐极品性格和刷法此精灵的性格分为3层最佳性格:保守,胆小2、天真,急躁,马虎,稳重3、平衡性格努力值:特功255+体力255特功255+速
1、少女适俗韵2、不正经的草莓3、米粥好甜4、是知南知南呀5、樱桃小漂亮6、大原娜娜子7、寄一份梦8、棉花糖味的小仙女9、迪迦睡不着10、西柚冰
特斯拉CEO马斯克在当地时间1月25日表示,特斯拉大幅降价为电动汽车销售创造了一波需求,解决了人们对经济疲软会抑制买家购买兴趣的担忧。当天
青墨画眉,油彩涂脸,蟒、靠和头饰上身……随着竹笛、唢呐的乐点,王玉坤扮的小生迈着碎步走上台来,一亮嗓,台下父老乡亲的掌声
1、管窥:从管中窥物,喻目光短浅,见闻不广与坐井观天意思相近管窥如何:从管中窥物。2、又会怎么样呢?(自然是见识不到什么东西了)。
固原市气象台发布大风蓝色预警【IV级 一般】
首先,在开局明确几个基本共识:1:日冕在1V1,高手局的情况下,是很平衡的2:日冕在高手的混战中,是基本平衡的,每个阵营都有差不太多的概率
1、该剧精致的画风和美好的情怀如同春风般温暖,成功颠覆了类型剧的固有风格,聚焦于弘扬人间美德的主题。《两世欢》没有设定穿越、奇幻、抢劫
TelseyAdvisoryGroup:维持Amazon com(AMZN US)优于大市评级,目标价由140 00美元调整至125 00美元。
峨山彝族自治县气象台发布寒潮蓝色预警【Ⅳ级 一般】【2023-01-24】
1、①刺猬+鸵鸟(推荐)②刺猬+浣熊(更推荐)③挪威森林猫+浣熊(最推荐)鸵鸟跟浣熊的利润是差不多的,浣熊要略高一点。2、如果你每次都能自己赶动
爆砍37分11板4助2帽!湖人官推晒詹姆斯炸裂数据:,湖人,勒布朗詹姆斯,波特兰开拓者,詹姆斯(塞文子爵)
本专栏内图片仅用作科普用,一切图片内文案皆为虚构内容,本人仅为收集,历史图片版权归属原作者所有。翁贝托二世遇刺!米兰,DeAmicis路,197