搜档网
当前位置:搜档网 › PERFORMANCE EVALUATION OF H263 CODED VIDEO SEQUENCES TRANSMITTED OVER A TURBO-CODED UMTSTDD

PERFORMANCE EVALUATION OF H263 CODED VIDEO SEQUENCES TRANSMITTED OVER A TURBO-CODED UMTSTDD

PERFORMANCE EVALUATION OF H263 CODED VIDEO SEQUENCES TRANSMITTED OVER A TURBO-CODED UMTS/TDD SYSTEM

Joumana Farah, Fran?ois Marx, Marylin Arndt

France Telecom R&D, 28 chemin du Vieux Chêne, BP 98-38243 Meylan Cedex, France

{joumana.farah,francois.marx,marylin.arndt}@https://www.sodocs.net/doc/985598868.html,

Abstract - In the present paper, we aim to present a comparative study of the performances, in terms of the mean PSNR (Peak Signal to Noise Ratio), of a UMTS/TDD transmission system for H263 compressed and turbo- coded video sequences. Several parameters are varied, among them: the rate of occurrence of Intra coded frames, the video compression level and the Bit Error Rate of the transmission channel. We also present a methodology for determining the best repartition scheme of the global channel bandwidth between source and channel coding, in order to minimize the global distortion on the transmitted sequences.

Keywords - UMTS/TDD, multi-path fading channel, turbo-decoding, H263 video coding, error propagation, rate-distorsion compromise.

I. INTRODUCTION

Third generation mobile communication systems are expected to provide a multitude of services, and a wild range of user data rates, depending on the transmission environments, the required quality of service, the mobile velocities, etc. One of the applications that require very low BERs (Bit Error Rates) is the transmission of compressed video sequences. In such binary sequences, redundancy has been removed using several techniques like DCT or Discrete Cosine Transform (for spatial redundancy), predictive coding (for temporal redundancy) -which consists on coding a current frame depending on the preceding one(s), non linear quantification (for subjective redundancy), entropic coding (for statistical redundancy), etc.

Because of the high level of compression, the data sequences become particularly sensible to the transmission channel interferences. Thus, it becomes essential to use error correcting coding schemes capable of achieving very high performances. These channel encoders add a form of redundancy that can be efficiently exploited by the receiver, in order to recover corrupted data. For that reason, parallel concatenated (turbo) recursive convolutional codes [7] were introduced in UMTS (Universal Mobile Telecommunication System). They present [4] a memory length of 3, a coding rate of 1/3 and polynomials in octal notation: 13,15. In this paper, we aim to study the combined effects of source and channel coding by showing the behavior of an H263 compressed and turbo-coded UMTS/TDD (Time Division Duplex [3][5]) system, under different conditions. We begin, in paragraphs II and III, with a presentation of the baseband transmitter and receiver simulated models. A detailed description of the computer-simulation results follows in paragraphs IV, V and VI.

II. DESCRIPTION OF THE TRANSMITTER AND

RECEIVER BASEBAND PARTS

Mobile

user

Video

Sequence

quality

Figure 1: Bloc diagram of a UMTS/TDD transmission system for compressed and turbo-coded video sequences.

Figure 1 represents the synoptic of a radio system for the transmission of video sequences, H263 compressed and turbo-coded according to the channel coding scheme proper to UMTS/TDD [4].

In Figure 2 are depicted the different steps for mapping the user’s data block (in this case: compressed video) onto physical channels [3]. After channel coding, rate matching operation is performed: a certain number of bits is repeated (or punctured), in order to ensure that the total bit rate before multi-code mapping is identical to the total channel bit rate of the allocated physical channels. We suppose that the user is active during 14 slots of the UMTS/TDD frame, in order to achieve a data rate of 128 Kbits/s. The user is allocated two codes in the first slot and only one code in the followings. Unused codes in each slot, among the 16 available ones, are allocated to other (interfering) users. Useful and interfering parallel physical channels are

0-7803-7589-0/02/$17.00 ?2002 IEEE PIMRC 2002

transmitted using different channelisation (spreading) codes [5] with a spreading factor of 16. It has been shown in our former work [1] that this configuration (for codes allocation) permits to benefit from Doppler diversity.

The data in each physical channel is QPSK modulated and spread with a combination of spreading and scrambling code (scr_spr_code i (t), i = 1, …, number of codes). The scrambling code is a cell-specific pseudo-random complex sequences that multiply all users’ spread signals in the same cell. The pulse shaping filter or transmission filter is a square-root raised cosine (srrc(t)) with a roll-off of 0.22. Let s i (t) be the modulated stream corresponding to the i th channelisation code, h(t) be the multi-path channel response for the current block, n(t) the complex AWGN (Additive White Gaussian Noise). The overall signal at the output of the channel will be:

i i i

s(t) = s (t)*scr_spr_code (t) * srrc(t) * h(t) + n(t)? (1)

* being the convolution operation.

Figure 2: Transmitter baseband part of the overall

UMTS/TDD system. The following figure presents the details of the base band processing part of a UMTS/TDD receiver.

Figure 3: Receiver baseband part of the overall UMTS/TDD

system.

In order to resolve multi-path components introduced by the

mobile radio channel, it is necessary to coherently combine

their energies at the output of the channel. This is one by

introducing the received signal in a bank of matched filters

to the chip waveform, the multi-path channel response and

each of the spreading-scrambling codes.

The matched filter output corresponding to the i th

code can be written as: i i r (t) = s(t) * conj{ [scr_spr_code * srrc * h](T - t) }

% (2) "conj" being the complex conjugate operation, h(t)

% the estimated channel response and T the matched filter length. It is assumed, throughout this paper, that the channel response is accurately estimated at the receiver using the midamble part of the burst [2][9]. The complex symbols produced by the multiple parallel stages are then serially concatenated to be fed onto the QPSK demodulation block .

In order to avoid loss of useful information along the cascade of different blocks of the receiver, soft decisions should be transferred from one block to another instead of hard decisions. These soft decisions contain, in addition to the hard value (‘0’ or ‘1’), an estimation of the reliability of the decision.

Let r be the soft complex symbol sequence output by the matched filter bank. The purpose of QPSK demapping is to calculate the log-likelihood bit metrics over the two binary values y 0k and y 1k corresponding to each symbol r k such that the a posteriori probability P(y ik / r k ), i = 0,1, is maximized [8]:

ik ik ik k ik k k q : y = 1q : y = 0ik k P(y =1 / r )

LLR (y ) = Ln []Min r - q -Min r - q

P(y =0 / r )?With q = {±1,±j} being the set of QPSK symbols and

the Euclidean distance metric.

In case of a turbo-coded block, channel decoding is performed using the Maximum A Posteriori algorithm in the logarithmic domain (Log-MAP decoder). In order to limit the turbo-decoding iteration number in our simulations, a CRC check is performed [12], after each one, on the decoded block, so that the iterations are stopped when the block is correctly decoded, unless it reaches a maximum number (10). A detailed description of the Log-MAP algorithm can be found in [7].

As for the multi-path channel impulse response, it can be modeled by a sum of delayed Dirac pulses:

M

m m m=1h(τ,t)=a (t).δ(τ-τ)?

(4)

where a m (t) are the complex time-varying path weights (Rayleigh distributed), t m the quasi-fixed delays, M the number of resolvable paths. The M Rayleigh sequences are generated by filtering complex white Gaussian noise through the Doppler filter [1] characterized by the mobile velocity. In [6], are defined the time delays and average powers for each of the M = 6 paths of the UMTS standard test channels. In this paper, we present results obtained for the Vehicular B profile (frequency-selective fading).

Furthermore, we suppose that the mobile velocity is relatively low (40 Km/h) so that the channel characteristics

do not vary during a slot. III. VIDEO CODING

H263 video coding consists of several steps [10][11], depending on the chosen mode for the coding of the current frame. In case of Intra (I) coding , the image is directly DCT coded, without using any temporal dependency from previous frames. As for Inter (P) pictures , each bloc in the current frame is predicted from a previously reconstructed frame, using the motion estimation/compensation technique. Motion vectors are then predictively coded. The difference

between the reconstructed and current frame constitutes the prediction error which will also be DCT coded. In both cases (I or P), the DCT operation is followed by a threshold, a quantification of the coefficients, Run Length Coding and finally Entropy (or Variable Length) Coding.

Error propagation through successive images constitutes the most dominant problem in video transmission. It is due to the recursive structure of the video coder and decoder, when operating at the Inter mode (P frames). As it has been said, each frame is predictively coded in relation with the previous frame(s). Thus, the remaining distortions, after the error correcting decoding of the current frame, will propagate to the following ones, for a long period of time. Furthermore, errors do not only propagate in time, but they also spread spatially, due to the motion compensation technique. In order to limit this phenomenon, Intra coding is periodically used in the coded sequence. However, this type of coding increases the transmitted data rate (I-coded frames are much bigger than P frames) and, thus, decreases video compression efficacy. So a compromise has to be found between video quality and transmission rate.

The video quality can be measured by the Peak Signal to Noise Ratio or PSNR of the successive frames defined as:

2255PSNR 10log MSE ??

=?÷?÷è?

in case of an 8-bit representation for

the luminance and chrominance image components. The MSE is the Mean Square Error between the original image f and the decoded (degraded) one f'. It can be calculated by:

[]N 1M-1

2i 0j=01MSE = (i,j) - '(i,j)N.M -=??f f , for images of dimensions (N,M). Global performances are measured by the (mean PSNR) of a video sequence.

A number of trials on the same video sequence (of length 30 seconds) is realized, in order to take into account the probabilistic nature of the transmission channel. In our work, the number of manipulation is near 50. In addition to the quantified measure, subjective tests have to be done on the decoded sequences, in order to compare the decoding quality under different conditions. Note that an acceptable video quality corresponds to a PSNR near 30 dB. The minimal noticeable difference in PSNR, between H263 coded images, is almost 1 dB.

IV. INFLUENCE OF THE INTRA CODING RATE ON

H263 CODED VIDEO SEQUENCES The first case study treated in this paper concerns the reception, by the mobile, of QCIF video sequences, sampled at a rate of 15 frames/s. H263 compression is done using variable DCT quantification coefficients, such that the source coding rate remains constant (45, 64 or 128

Kbits/s), for each value of the ratio number of P frames

r number of I frames

=

.

Channel coding is done using the rate 1/3 (non punctured) turbo-coding UMTS scheme. The transmission BER is 10-4, obtained in these conditions [1] for a value of b 0E /N (received mean signal energy per information bit to noise power density ratio) at 15 dB.

Figure 4 represents the results (distribution, mean, maximum and minimum of PSNR ) obtained with different values of r, for a source coding rate of 64 Kbits/s. Each point represents the PSNR of a video sequence of 30 seconds. When looking at the "mean" curve , we notice a rapid growth for the values of r between 3 and 6. This is due to the fact that the number of bits allocated to the coding of P frames grows, with a decrease of the bits allocated for I frames, causing an improvement in the global performances. Starting from r = 6, we observe a saturation of the curve near 27.5 dB. In fact, in this zone, two phenomena are contradictory: on one hand, the number of I frames diminishes (so the number of bits in P frames increases), on the other the error propagation effect, due to successive P frames, grows fast. The "maximum" curve is the same one obtained without any channel effect, and in the absence of noise. The errors are the only ones due to the DCT quantification effect.

Figure 4: Mean PSNR for different values of r, in case of a source coding rate of 64 Kbits/s, a BER of 10-4 and a fading

Vehicular B channel. Now note the distribution of the different points (vertically), for each value of r. We notice the spreading effect on these points, when r grows. This is due to the growing error propagation phenomenon, especially for very noisy sequences. This is another advantage for using a small value of r in order to maintain a certain image quality, in the same channel conditions. But the main reason for this choice is that the coding/decoding complexity of I frames is much less then the one for P frames. The optimal value for r is 6 for a source coding rate of 64 Kbits/s. We predict that this

value will be greater for a rate of 45 Kbits/s and lesser for 128 Kbits/s. This depends on the amount of bits available for the coding of I frames (too small in case of 45 Kbits/s).

V. INFLUENCE OF THE SOURCE CODING DATA RATE AND THE TRANSMISSION BER ON H263

CODED VIDEO SEQUENCES

Figure 5 represents the results obtained with the source coding rates of 45 and 128 Kbits/s. The transmission BER is still 10-4. As expected, we notice that the optimal value of r, from which the mean PSNR becomes almost constant, grows to 8 in case of 45 Kbits/s and decreases to 5 for 128 Kbits/s. The corresponding value of the mean PSNR is 26.7 dB for 45 Kbits/s and 29.3 dB for 128 Kbits/s. This value was at 27.5 dB for 64 Kbits/s.

Figure 5: Mean PSNR for different values of r, in case of a source coding rate of 45 Kbits/s (above) or 128 Kbits/s (below), a BER of 10-4 and a fading Vehicular B channel. Table 1 represents the mean PSNR obtained for different values of the Signal to Noise Ratio. The corresponding values of the BER are the ones obtained in [1] for a turbo-coded system with a user data rate of 128 Kbits/s and a mobile velocity of 40 Km/h. The adopted values for the r ratio (number of I frames / number of P frames) are the optimal ones determined in section 4, for each value of the source coding rate.

The last column of the table represents the gain obtained, for a fixed value of the E b/N0 ratio, by increasing the source coding rate from 45 Kbits/s to 128 Kbits/s. We notice that this gain is highly dependant on the channel conditions: It is near 1 dB for E b/N0 = 14 dB (BER = 7.4*10-4) and quickly grows to more than 3 dB starting from E b/N0 = 17 dB (BER = 1.6*10-5). This phenomenon can be explained by the following: In case of a very noisy channel, reducing the video compression level is equivalent to increasing the number of source bits mostly corrupted by channel errors. Thus, the improvement in video quality is less important in comparison with better channel conditions.

Table 1: mean PSNR for different values of the Signal to

Noise Ratio.

E b/N0

(dB)

Source

coding rate

(Kbits/s)

r

Mean

PSNR

(dB)

PSNR (128

Kbits/s) -

PSNR (45

Kbits/s)

45 8 26.21

64 6 26.80

14

(BER =

7.4*10-4) 128 5 27.25

? 1 dB

45 8 26.70

64 6 27.58

15

(BER =

2*10-4)128 5 29.25

? 2.56 dB

45 8 26.86

64 6 27.83

17

(BER =

1.6*10-5)128 5 29.97

? 3.1 dB

45 8 26.89

64 6 27.87

(absence

of noise) 128 5 29.99

? 3.1 dB

VI. OPTIMAL ALLOCATION OF THE OVERALL

BANDWIDTH BETWEEN SOURCE AND

CHANNEL CODING

The aim of this paragraph is to determine the best distribution scheme for the bandwidth, in order to minimize the global distortion, under the constraint of a fixed transmission rate. The global distortion is defined by the sum of the one due to the signal compression and the one induced by the transmission channel. In other words, we seek a rate-distortion compromise, so that the channel bandwidth is optimally divided between the binary rate allocated to the source and the redundancy rate allocated for the protection of the transmitted data.

In the following, we compare two different schemes presenting the same global transmission rate:

§ Scheme A: Channel coding with rate 1/3 (non punctured turbo-codes), source coding at 45 Kbits/s. The value for the r ratio is taken as the optimal for this source rate (r=8) as proven in paragraph V.

§ Scheme B: Channel coding with rate 1/2 (punctured turbo-codes), source coding at 64 Kbits/s. The value for r is 6.

Figure 6 shows the PSNR evolution for the B scheme. The range of values for the E b/N0 ratio is over 18 dB, since it is obvious that, before this range, the A scheme is better. Indeed, the minimum value for PSNR is near 25.5 dB for this scheme (see top of figure 5).

However, starting from 18 dB, the non punctured turbo-codes correct almost all transmission errors. Only persist those errors due to source coding (quantification) distortions. The value of PSNR in the absence of noise is 26.9 dB for scheme A (see top of figure 5). By comparing this value to the graph obtained here, we notice that, starting from a value of E b/N0 near 22 dB, it becomes more interesting to use scheme B which permits an increase in the PSNR after 22 dB. Indeed, after 24 dB, the curve still grows until a maximum of 27.9 dB (measured for the B scheme in the absence of noise), whereas the maximum PSNR of scheme A stagnates to 26.9 dB. The structure with a coding rate of 1/2 and a source rate of 64 Kbits/s is better to get rid of the residual errors due to source coding. Of course, we're only considering the mean value for the PSNR. In fact, the results, after 22 dB, continue to fluctuate around the valued indicated on the graph.

Figure 6: Mean PSNR for different values of E b/N0 ratio, in case of a source coding rate of 64 Kbits/s, punctured (rate 1/2) turbo-codes, and a fading Vehicular B channel.

For the range of E b/N0 values less than 22 dB, it turns out to be more adequate to favor channel coding (use A scheme). Indeed, reducing the video compression, in this case, is equivalent to increasing the number of source bits corrupted by channel errors, resulting in a bad quality for the reconstructed video.

VII. CONCLUSION

Performances of turbo-codes have been analyzed in the context of a video transmission for UMTS-TDD. In order to limit error propagation due to the source coder, we determined an optimal value for the rate of P-pictures (Inter) to I-pictures (Intra). Finally, the use of puncturing allows a better allocation of the bandwidth between source and channel coding and the PSNR improvement is more than 1 dB.

REFERENCES

[1] J. Farah, M. Arndt, J. Lienard, “Performance Evaluation

of different channel coding schemes for time-varying multi-path channels in UMTS/TDD”, Globecom, Texas, November 2001, pp. 1235-1240.

[2] L. Ros, J. Farah, M. Arndt, “Joint Linear Multi-Sensor

Reception in Downlink TD/CDMA”, 7th IEEE International Conference on Electronics, Circuits and Systems (ICECS’2K), December 2000, Lebanon, pp.

152-155.

[3] 3GPP, Technical Specification Group, Physical channels

and mapping of transport channels onto physical channels (TDD), TS25.221 V3.2.0, March 2000.

[4] 3GPP, Technical Specification Group, Multiplexing and

channel coding (TDD), TS25.222 V3.2.0, March 2000. [5] 3GPP, Technical Specification Group, Spreading and

modulation (TDD), TS25.223 V3.2.0, March 2000.

[6] ETSI, Selection procedures for the choice of radio

transmission technologies of the UMTS, TR 104 112 V3.2.0, April 1998.

[7] C. Berrou, A. Glavieux, P. Thitimajshima, “Near

Shannon limit error –correcting coding and decoding : Turbo-codes (1)”, IEEE International Conference on Communication, Geneva, 1993, pp. 1064-1070.

[8] J. G. Proakis, Digital Communications, McGraw –Hill

Editions, 1995.

[9] B. Steiner, P. Jung, “Uplink channel estimation in

synchronous CDMA systems with Joint Detection”, PIMRC 1993, Yokohama, pp. 123-127.

[10] ITU-T, Codage vidéo pour communications à faible

débit, H263 Recommandation of the International Union of Telecommunications.

[11] S. Gringeri, R. Egorov, K. Shuaib, A. Lewis, B. Basch,

“Robust compression and transmission of MPEG-4 Video”, available at http://www.kom.e-technik.tu-darmstadt.de/acmmm99/ep/gringeri.

[12] J. Farah, M. Arndt, “Récepteur radiotéléphonique de

type UMTS” (Radio-phonic receiver of a UMTS type), patent of France Telecom n° 01-09570, registered on the 13/07/01.

常见的视频编码详解

常见的视频编码详解 A VI所采用的压缩算法并无统一的标准。也就是说,同样是以A VI为后缀的视频文件,其采用的压缩算法可能不同,需要相应的解压软件才能识别和回放该A VI文件。除了Microsoft 公司之外,其他公司也推出了自己的压缩算法,只要把该算法的驱动(Codec)加到Windows 系统中,就可以播放用该算法压缩的A VI文件。最新流行的MPEG-4视频也借用A VI的名称,只要机器安装了它的编码解码,也能够实现正常的播放。这些A VI都能够在用Authorware 或PowerPiont开发的作品当中正常放映。各种编码Codec所生成的A VI文件的大小和质量是不同的,对系统和硬件要求也不同。 因此在压缩A VI时,必须根据计算机的软硬件情况,来考虑采用什么Codec算法,否则你的作品中视频放映是难以令人满意的。下面就是对各种常见编码解码Codec的说明。 常见的视频编码 1、Cinepak Codec by Radius 它最初发布的时候是用在386的电脑上看小电影,在高数据压缩率下,有很高的播放速度。利用这种压缩方案可以取得较高的压缩比和较快的回放速度,但是它的压缩时间相对较长。 2、Microsoft Video 1 用于对模拟视频进行压缩,是一种有损压缩方案,最高仅达到256色,它的品质就可想而知,一般还是不要使用它来编码A VI。 3、Microsoft RLE 一种8位的编码方式,只能支持到256色。压缩动画或者是计算机合成的图像等具有大面积色块的素材可以使用它来编码,是一种无损压缩方案。 4、Microsoft H.261和H.263 Video Codec 用于视频会议的Codec,其中H.261适用于ISDN、DDN线路,H.263适用于局域网,不过一般机器上这种Codec是用来播放的,不能用于编码。 5、Intel Indeo Video R3.2 所有的Windows版本都能用Indeo video 3.2播放A VI编码。它压缩率比Cinepak大,但需要回放的计算机要比Cinepak的快。 6、Intel Indeo Video 4和5

视频文件格式和视频编码方式区别

目前网上的各种视频格式可以说就是泛滥成灾,加上各个PMP(Portable Media Player,便携式媒体播放器)生产厂家的对自己产品在功能方面的炒作,使得很多人对视频格式的名称 都就是一头的雾水。 经常有些童鞋问我类似下面的问题。 A问我说:“我的MP4分明写着能播放AVI不?为什么这一个AVI文件就播放不了?” B问:“我的MP4支持Mpeg-4啊,为什么Mp4文件不能播放呢?” 好的,下面我从最基本的概念给大家解释一下,顺便回答这两个问题 首先大家要清楚两个概念,视频文件格式与视频编码方式。 视频文件格式一般情况下从视频文件的后缀名就能瞧出来,比如AVI,Mp4,3gp,mov,rmvb 等等。这些格式又叫做容器格式(container format),顾名思义就就是用来装东西的,您可以把它想象成为一个便当盒,或者野餐篮(兄弟,您没吃早饭吧)。 通常我们从网上下载的电影都就是有声音的(废话,难道您只瞧默片!众人扔香蕉皮),所以容器格式中一般至少包含有两个数据流(stream),一个视频流,一个音频流,就好比就是一个便当盒里装着的配菜与米饭。 视频编码方式则就是指容器格式中视频流数据的压缩编码方式,例如Mpeg-4,H、264,H、263,等等。而视频数据采用了何种编码方式就是无法单单从文件格式的后缀上瞧出来的。就就是说您无法从一个盖着盖子的便当盒外面瞧出里面装了什么配菜。 如果您想播放一个视频文件,第一步您的播放器(不论就是软件的还就是硬件的)要能够 解析相应的容器格式,这一步也叫做解复用(demux),第二步您的播放器要能够解码其中所包 含视频流与音频流。这样影片才能播放出来。 打个不太恰当的比方,播放器好比您雇用的一个试菜员,由她来品尝便当(视频文件),然 后告诉您便当里装了什么东西。(没天理阿!我想自己吃,好的当然可以,0x00 00 01 B6 05 FF 36 1A 50 …… ……, 俄~) 所以试菜员首先要懂得如何打开便当盒,还要知道吃的出来便当盒里装了什么配菜,这样您才能获得您想要的信息。 回过头来瞧前面的两个问题,用以上的比喻翻译一下。 问题A,我的试菜员能打开AVI这种便当的,为什么我不能知道里面装了什么? 回答很简单,虽然她能够打开便当,但就是吃不出里面的东西就是什么。理论上没有一个播放器能够播放所有的AVI格式的电影,因为您不知道我会往里面放什么配菜。 问题B,我的试菜员吃过Mpeg-4这种牛排阿,为什么不能打开Mp4这种便当盒呢? 这个问题通过翻译之后瞧起来已经不就是问题了,Mpeg-4就是视频编码方式,而Mp4就是容器格式,两者本来就不就是一个范畴里的东西。 好了下面简单介绍一下流行的视频格式。

128条形码编码规则

条形码CODE128编码规则 CODE128简介 CODE128码于1981年推出,是一种长度可变、连续性的字母数字条码。与其他一维条码比 较起来,相对较为复杂,支持的宇元也相对较多,又有不同的编码为式可供交互运用,因此其应 用弹性也较大。 CODE 128 特性 1、具有A、B、C三种不同的编码类型,可提供标准ASC II中128个宇元的编码使用; 2、允许双向扫描; 3、可自行决定是否加上校验位; 4、条码长度可调,但包括开始位和结束位在内,不可超过232个字元; 5、同一个CODE128码可以由A、B、C 三种不同编码规则互换,既可扩大字元选择的范围, 也可缩短编码的长度。 CODE 128编码方式的编码范围 1、CODE128A:标准数字、大写字母、控制符及特殊宇符; 2、CODE128B:标准数字、大写宇母、小写字母及特殊字符; 3、CODE128C/EAN128: [00]~[99]的数字对集合,共100个,既只能表示偶数位长 度的数字。 CODE 128编码规则 开始位+[FNC1(为EAN128码时附加)]+数据位+校验位+结束位 CODE 128校验位计算 (开始位对应ID+每位数据在整个数据中的位置×每位数据对应的ID值)% 103 CODE 128编码表 ID ASC II Cade128A Cade128B Cade128C BandCode 编码值 0 32 SP SP 00 212222 11011001100 1 33 ! ! 01 22212 2 11001101100 2 34 “ “ 02 222221 11001100110 3 35 # # 03 121223 10010011000 4 36 $ $ 04 121322 100h0001100

讯镭Netum条码扫描枪如何使用

讯镭Netum条码扫描枪如何使用? 来源:扫描网 讯镭Netum条码扫描枪如何使用?大多数用户应该都知道,条码扫描枪是即插即用的,直接连接电脑就可以开始扫描了,可是无线枪的连接相对来说就优点麻烦了,有些无线枪在扫描之前还需要配对,很多用户都不是很理解,下面扫描网小编以迅雷Netum条码扫描枪NT8800为例,给大家讲解一下无线枪在使用时需要注意哪些方面。 使用前须知: 1)迅镭NT-8800扫描枪的充电接口仅能进行充电操作,不能连接其他数据线: 2)充电时,迅镭NT-8800扫描枪底部指示灯为红色(请务必使用出厂标配电源适配器进行充电,否则有可能损坏设备);充电饱和时,指示灯熄灭(关机充电状态下) 3)充电时间:4小时完全饱和 4)开机后,如迅镭NT-8800扫描枪超过20秒未使用,将进行自动关机 5)出厂时迅镭NT-8800扫描枪与接收器间已建立好配对关系,如无必要,请勿自行配对。如实在需要重新配对,请先扫频道设置(设置此项之前需要将接收端的复位键长按至绿灯常亮时方可设置频道,设置好之后按复位键绿灯熄灭) 如何连接? 1)设备连接;将USB迷你接收器连接到数据终端(如电脑) 2)开启扫描枪;按扫描枪的按键开关。听到滴的二声后,即开启了扫描枪 常见问题: 1)问:扫描枪有“滴”一声长鸣的提示音?答:这是因为扫描枪电力不足,需要充电 2)问:机器短鸣三声答:这是因为扫描枪没有与USB迷你接口器连接上,或者是没有信号。请重新连接设备并适当调整工作范围。 3)问:扫描枪扫描正常,但数据终端不显示数据?答:未扫描“开启无线”或USB迷你接收器与扫描数据终端未正确连接,请参照本指引中的“基本操作流程””重新设置一遍。或者是数据终端的USB接口破坏或对外设支持不好,请换一个USB口或重启电脑 4)问:无线电传输是否会影响家电(如:电视机)及其他电器的使用?答;一般不会。此型号的无线激光条码扫描枪的无线功率水平在10dbm以下,且使用2.4G频段,对其他无线电的干扰较小。

128条码

CODE 128 国家标准 1. code 128码格式: 从左起:空白区域,起始字符,数据区域,校验码,结束字符,空白区域。 所有字符条纹图像都是以黑色开始,白色结束,只有结束字符例外。 2. 起始字符: 由于128码有三个字符集。所以有三个起始字符。 Start A : 表示后面的码值代码是从字符集A中值。全部大写字母和标点符号和特殊符号。 用六个黑白粗细不一表示为:{2,1,1,4,1,2} Start B: 表示字符集B,全部大小写字符和标点符号。数据为:{2,1,1,2,1,4} Start C: 表示字符集C,数字00-99. 数据为:{2,1,1,2,3,2} 3. 数据字符的表示 在128码中所有数据都是有1-4的六位数组表示,总共绘制成11条黑白条纹。 校验码算法: 校验码=(起始字符值+第一位数据值*1 +第二位数据值*2+ …. + 第n 位数据*n )%103; 4. 结束字符: 128码结束字符只有一个在编码表中以Stop 来表示,数据为:{2,3,3,1,1,1,2}; ++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++ +++++++++++++++++++++++++++++++++++++ 图形方式输出Code128C条形码 最近的项目牵涉到一维条码打印的问题。条码的选型上倒没什么,因为要求短且仅包含数字,所以决定选用Code128C。在国外的网站上找了点资料研究了下,终于大致搞懂了Code128C 的原理和实现方法。 Code128C只能编码长度是偶数的数字串,这是它的前提之一。说起来编码规则很简单,00 - 99 这100个数字每个数字都预先规定好一个条码,然后把原始的待编码字符串两位两位的读取,每个两位都从上面提到的码表中找到对应的条码,追加。 举个例子,我们要打印12345678的Code128c条码。首先打印Code128c的条码头,bbsbssbbbss。(b代表1个单位宽度的竖线,s代表1个单位宽度的空白) 然后对12345678编码。我们把它看成12 34 56 78。12对应的条码是bsbbssbbbss,34对应的条码是bsssbsbbsss,56对应的条码是bbbsssbsbbs,78对应的条码是bbssssbsbss。按次序堆积起来就是了。 现在应该很好理解为什么C型128码可以打印的比较短,就是因为输出的信息被压缩到原来的一半。 接下来就是一个自校验码。计算方法是:(105 + (1 * 12 + 2 * 34 + 3 * 56 + 4 *78)) % 103 = 47。

音视频技术基本知识一

https://www.sodocs.net/doc/985598868.html, 音视频技术基本知识一 网易视频云是网易倾力打造的一款基于云计算的分布式多媒体处理集群和专业音视频技术,为客户提供稳定流畅、低时延、高并发的视频直播、录制、存储、转码及点播等音视频的PaaS服务。在线教育、远程医疗、娱乐秀场、在线金融等各行业及企业用户只需经过简单的开发即可打造在线音视频平台。现在,网易视频云总结网络上的知识,与大家分享一下音视频技术基本知识。 与画质、音质等有关的术语 这些术语术语包括帧大小、帧速率、比特率及采样率等。 1、帧 一般来说,帧是影像常用的最小单位,简单的说就是组成一段视频的一幅幅图片。电影的播放连续的帧播放所产生的,现在大多数视频也类似,下面说说帧速率和帧大小。 帧速率,有的转换器也叫帧率,或者是每秒帧数一类的,这可以理解为每一秒的播放中有多少张图片,一般来说,我们的眼睛在看到东西时,那些东西的影像会在眼睛中停留大约十六分之一秒,也就是视频中只要每秒超过15帧,人眼就会认为画面是连续不断的,事实上早期的手绘动画就是每秒播放15张以上的图片做出来的。但这只是一般情况,当视频中有较快的动作时,帧速率过小,动作的画面跳跃感就会很严重,有明显的失真感。因此帧速率最好在24帧及以上,这24帧是电影的帧速率。 帧大小,有的转换器也叫画面大小或屏幕大小等,是组成视频的每一帧的大小,直观表现为转换出来的视频的分辨率的大小。一般来说,软件都会预置几个分辨率,一般为320×240、480×320、640×360、800×480、960×540、1280×720及1920×1080等,当然很多转换器提供自定义选项,这里,不得改变视频长宽比例。一般根据所需要想要在什么设备上播放来选择分辨率,如果是转换到普通手机、PSP等设备上,视频分辨率选择与设备分辨率相同,否则某些设备可能会播放不流畅,设备分辨率的大小一般都可以在中关村在线上查到。 2、比特率 比特率,又叫码率或数据速率,是指每秒传输的视频数据量的大小,音视频中的比特率,是指由模拟信号转换为数字信号的采样率;采样率越高,还原后的音质和画质就越好;音视频文件的体积就越大,对系统配置的要求也越高。 在音频中,1M以上比特率的音乐一般只能在正版CD中找到,500K到1M的是以APE、FLAC等为扩展名的无损压缩的音频格式,一般的MP3是在96K到320K之间。目前,对大多数人而言,对一般人而言192K就足够了。 在视频中,蓝光高清的比特率一般在40M以上,DVD一般在5M以上,VCD一般是在1M 以上。(这些均是指正版原盘,即未经视频压缩的版本)。常见的视频文件中,1080P的码率一般在2到5M之间,720P的一般在1到3M,其他分辨率的多在一M一下。 视频文件的比特率与帧大小、帧速率直接相关,一般帧越大、速率越高,比特率也就越大。当然某些转换器也可以强制调低比特率,但这样一般都会导致画面失真,如产生色块、色位不正、出现锯齿等情况。

视频封装格式详解

视频封装格式详解 所谓封装格式就是将已经编码压缩好的视频轨和音频轨按照一定的格式放到一个文件中,也 就是说仅仅是一个外壳,或者大家把它当成一个放视频轨和音频轨的文件夹也可以。说得通 俗点,视频轨相当于饭,而音频轨相当于菜,封装格式就是一个碗,或者一个锅,用来盛放 饭菜的容器。 比较常用的有以下封装格式 1 AVI AVI 容器-成熟的老技术 AVI是微软1992年推出用于对抗苹果Quicktime的技术,尽管国际学术界公认AVI已经属于 被淘汰的技术,但是由于windows的通用性,和简单易懂的开发API,还在被广泛使用。 AVI的文件结构、分为头部, 主体和索引三部分. 主体中图像数据和声音数据是交互存 放的。从尾部的索引可以索引跳到自己想放的位置。 AVI本身只是提供了这么一个框架,内部的图像数据和声音顺据格式可以是任意的编 码形式。因为索引放在了文件尾部,所以在播internet流媒体时已属力不从心。很简单的例 子,从网络上下载的片子,如果没有下载完成,是很难正常播放出来。另外一个问题是AVI 对高码率VBR音频文件支持不好。

VBR全称是Variable BitRate,就是动态比特率,可以根据当前的需要定义不同的比 特率,避免了浪费,并且提高了利用率。随之问题也就来了,因为容器里的图像和声音是分 开的,所以播放时需要一个图像和声音的同步过程,如果CBR音轨的话因为码率是定值,同 步不成为问题,可是VBR音轨是不断的在变换,而AVI没有时间戳去让VBR音轨和图像同 步,这样就会产生图像声音不同步的问题。后来VirtualDub提出了一种新的方法扩充了AVI 对VBR音频的兼容,但是在高码率时会产生丢失数据的问题,从而导致有损音效,这一点问 题到现在都没有比较完美的解决方法。并且更加令人遗憾的是,对TrueHD, DTS-HD等音 效更是完全不能支持。 2 ts和ps封装 因为HDDVD以及BD之争,尽管两家在编码上都统一采用MPEG2/VC-1/H.264,可在封装 格式上又有所分岐。DVD论坛官方所认可的HDDVD 使用的是PS封装,即Program Stream(程序流),这和之前DVD所采用的MPEG2 Program Stream封装是一样的,PS流 的后缀名是VOB以及EVO等。而BD在没有DVD论坛官方认证的情况下,自然不是PS封装, 而是使用了MPEG2的另一封装TS封装,即Transport Stream(传输流),TS流的后缀名为 TS。它们都是MPEG2系统部分的两个不同的语法结构,而在现在仅仅在作为封装使用。 TS流对于PS流来说更易传输,不过由于其性质,也更易出错,所以在以前一般存储方面都

Code 39条形码编码规则

Code 39条形码分为标准型Code 39(Standard Code 39)及完全型Code 39(Full ASCII Code 39). 标准型Code 39表示的资料内容,包括有A~Z大写英文字母,0~9数字,以及一些特殊符号,共计有44个字符. 而Full ASCII Code 39除上述标准型Code 39之44个字符外,再搭配,"/","%","$","+"等前置符号即可扩充成128个字符(含一个起始和结束字符). 例如标准形Code 39无英文字母小写,只有大写 若大写前加上一个"+",就变成英文小写 +A -------> a +B -------> b 详细全部的Full ASCII Code 39字符,列于Code 39 Full ASCII表中 Code 39编码方式 Code 39条形码只有二种粗细比例线,也就是说较粗的线条是细线条的2~3倍,举例说明,如下图标. 若细条形码长度x=1mm时,则粗条形码长度应为R=2mm ~ 3mm之间才适当.

Code 39检查码 Code 39的检查码,可打印可不打印,端看使用者取舍. 以下为获得检查码之步骤: 步骤一.假设有一Code 39条形码为 "ANDY" 步骤二.将各字符相对值相加总 10+23+13+34=80 步骤三.用基数43去除加总,取得余数 80/43=1 (37) 37即check digit之相对值. 步骤四.取相对值之对应值,即为check digit之字符 37-->"." 因此加入check digit之条形码为"ANDY." Code 39特性综合说明 1.Code 39起始码/结束码为"*".

常用一维条形码编码规则.

常用一维条形码 139码(CODE39) 39码可以包含数字及英文字母。除了超市、零售业的应用中使用UPC/EAN码外,几乎在其他饿应用环境中,都是使用39码。39码是目前使用最广泛的条码规格,支持39码的软硬件设备也最齐全。 1.1 特征 ◆能表示44个字符,A-Z、0-9、SPACE、-、.、$、/、+、%、* ◆分散式,条码组之间使用细白条分隔 ◆两种宽度 ◆自我检查 ◆有扩展模式《Full ASCII Mode》 ◆检查码字符可有可无,视需求而定 1.2 组成 ◆各个字符有9条黑白相间,粗细不同的线条组成,其中6条为黑白细条3条黑白粗 条 ◆一串字符必须在头尾加上起始字符和结束字符“*” 1.3 校验方法 找到输入字符串每个字符对应值,求和,除以43,取余数。

1.4 条码说明

1.5 编码表 P.S. 在程序中可以使用“11”表示宽黑条,‘1’表示细黑条,“00”表示宽白条,“0”表示细白条。那么字符1就可以表示为110100101011。使用此方法建立一个编码表,每个字符可以长度为12的“01”字符串来表示。

1.6 典型CODE39条码 1.7 CODE39的扩展码 扩展码表同CODE93。但是扩展方式不同,39码使用$,/,+.%与其26个大写字母组合,表示ASCII码表中的其他字符。条空表示方式和校验方式与标准39码相同。 93码中使用的控制码与26个大写字母的组合。 293码(CODE93) 2.1 组成 ◆字母:A-Z,数字:0-9,符号:SPACE, - , . , $ , / , +, %, 控制码:$ , / , +, %,起始结束码: □ ◆每个字由9个模组成,包括3条粗细黑条及3条粗细白条。每一黑条或白条有可能为 1.2.3.4模组成 2.2 特征 ◆用4个控制码$, %, /, + 组合其他字母或符号,可编程FULL ASCII字母,读码器读到 上面4个控制码的组合时候,送出的字尾所对应的ASCII。 ◆有2个检验码C和K。 2.3 校验方法 ◆先查出资料所对应值,对应值的表如下

数字视频基础知识

第三章 数字视频基础知识 3.1 视频的基础知识 在人类接受的信息中,有70%来自视觉,其中视频是最直观、最具体、信息量最丰富的。我们在日常生活中看到的电视、电影、VCD、DVD以及用摄像机、手机等拍摄的活动图像等都属于视频的范畴。 摄影机是指用胶片拍摄电影的机器,摄像机是用磁带、光盘、硬盘等作为界质记录活动影像的机器,广泛用于电视节目制作、家庭及其他各个方面。 摄影机使用胶片和机械装置记录活动影像,所采用的是光学和化学记录方式,摄象机是采用电子记录方式。 1 视频的定义 ?视频(Video)就其本质而言,是内容随时间变化的一组动态图像(25或30帧/秒),所以视频又叫作运动图像或活动图像。 ?一帧就是一幅静态画面,快速连续地显示帧,便能形运动的图像,每秒钟显示帧数越多,即帧频越高,所显示的动作就会越流畅。 『视觉暂留现象』 ?人眼在观察景物时,光信号传人大脑神经,需经过一段短暂的时间,光的作用结束后,视觉形象并不立即消失,这种残留的视觉称“后像”,视觉的这一现象则被称为“视觉暂留现象”。 ?具体应用是电影的拍摄和放映。 ?根据实验人们发现要想看到连续不闪烁的画面,帧与帧之间的时间间隔最少要达到是二十四分之一秒。 ?视频信号具有以下特点: ?内容随时间而变化 ?有与画面动作同步的声音(伴音) ?图像与视频是两个既有联系又有区别的概念:静止的图片称为图像(Image),运动的图像称为视频(Video)。 ?图像与视频两者的信源方式不同,图像的输入靠扫描仪、数字照相机等设备;视频的输入是电视接收机、

摄象机、录象机、影碟机以及可以输出连续图像信号的设备。 2.视频的分类 ?按照处理方式的不同,视频分为模拟视频和数字视频。 ?模拟视频(Analog Video) ?模拟视频是用于传输图像和声音的随时间连续变化的电信号。早期视频的记录、存储和传输都采用模拟方式,如在电视上所见到的视频图像是以一种模拟电信号的形式来记录的,并依靠模拟调幅的手段在空间传播,再用盒式磁带录像机将其作为模拟信号存放在磁带上。 ?模拟视频的特点: ?以模拟电信号的形式来记录 ?依靠模拟调幅的手段在空间传播 ?使用磁带录象机将视频作为模拟信号存放在磁带上 ?传统视频信号以模拟方式进行存储和传送然而模拟视频不适合网络传输,在传输效率方面先天不足,而且图像随时间和频道的衰减较大,不便于分类、检索和编辑。 ?要使计算机能对视频进行处理,必须把视频源即来自于电视机、模拟摄像机、录像机、影碟机等设备的模拟视频信号转换成计算机要求的数字视频形式,这个过程称为视频的数字化过程。 ?数字视频可大大降低视频的传输和存储费用、增加交互性、带来精确稳定的图像。 ?如今,数字视频的应用已非常广泛。包括直接广播卫星(DBS)、有线电视(如图5.2)、数字电视在内的各种通信应用均需要采用数字视频。 ?一些消费产品,如VCD和DVD,数字式便携摄像机,都是以MPEG视频压缩为基础的。 数字化视频的优点 ?适合于网络应用 ?在网络环境中,视频信息可方便地实现资源共享。视频数字信号便于长距离传输。 ?再现性好 ?模拟信号由于是连续变化的,所以不管复制时精确度多高,失真不可避免,经多次复制后,误差就很大。

各种主流视频格式介绍

3GP: 3GP是一种3G流媒体的视频编码格式,主要是为了配合3G网络的高传输速度而开发的,也是目前手机中最为常见的一种视频格式。 3GP是新的移动设备标准格式,应用在手机、PSP等移动设备上,优点是文件体积小,移动性强,适合移动设备使用,缺点是在PC机上兼容性差,支持软件少,且播放质量差,帧数低,较AVI等传统格式相差很多。诺基亚提供的PC套件可以很好的支持3GP文件,暴风影音也可播放。 : (MPEG的全名为[Moving Pictures Experts Group],中文译名是动态图像专家组。 MPEG标准 MPEG标准主要有以下五个,MPEG-1、MPEG-2、MPEG-4、MPEG-7及MPEG-21等。(注意,没有MPEG-3,大家熟悉的MP3 只是MPEG Layeur 3)该专家组建于1988年,专门负责为CD建立视和音频标准,而成员都是为视频、音频及系统领域的技术专家。及后,他们成功将声音和影像的记录脱离了传统的模拟方式,建立了ISO IEC1172压缩编码标准,并制定出MPEG-格式,令视听传播方面进入了数码化时代。因此,大家现时泛指的MPEG-X版本,就是由 ISO(International Organization for Standardization)所制定而发布的视频、音频、数据的压缩标准。 MPEG标准的视频压缩编码技术主要利用了具有运动补偿的帧间压缩 编码技术以减小时间冗余度,利用DCT技术以减小图像的空间冗余度,利用熵编码则在信息表示方面减小了统计冗余度。这几种技术的综合运用,大大增强了压缩性能。 MPEG-1 MPEG-1标准于1992年正式出版,标准的编号为ISO/IEC11172,其标题为“码率约为1.5Mb/s用于数字存贮媒体活动图像及其伴音的编码”。 MPEG-2标准于1994年公布,包括编号为13818-1系统部分、编号为13818-2的视频部分、编号为13818-3的音频部分及编号为13818-4的符合性测试部分。 MPEG-2 MPEG-2编码标准希望囊括数字电视、图像通信各领域的编码标准,MPEG-2

条码扫描枪常见故障以及解决办法

条码扫描枪常见故障以及解决办法 条码扫描枪的使用操作步骤 1、插入扫描枪(默认情况下是接入电脑的USB接口) 2、鼠标打开EXCEL(或任何可以输入文本的软件) 3、在光标定位到要录入的单元格 4、扫描条码(根据需要设置条码枪的扫描模式,如扫描后回车、换行、连续扫描) 5、扫描完成,保存。 条码扫描枪不能读取条码的几种原因 1)没有打开识读这种条码的功能。 2)条码不符合规范,例如缺少必须的空白区,条和空的对比度过低,条和空的宽窄比例不合适。 3)阳光直射,感光器件进入饱和区。 4)条码表面复盖有透明材料,反光度太高,虽然眼睛可以看到条码,但是采集器识读条件严格,不能识读。 5)硬件故障,和你的经销商联系进行维修。 在笔记本电脑上,键盘接口的条码扫描器工作不正常,或扫描器正常而键盘不能工作 笔记本电脑上,键盘接口的扫描器相当于外接键盘。 笔记本电脑的键盘接口如果连接键盘之后可能的变化是∶ 1)原有键盘失效。这时扫描器正常而键盘不能工作 2)笔记本电脑的键盘正常,外接键盘不工作。这时扫描器不工作 解决办法∶ 1)通过自动方式设置BIOS使外接键盘工作 2)连接键盘接口扫描器 3)扫描器接外接键盘 4)或者直接使用串口扫描器 条码扫描枪使用常见问题 Q:计算机发出嘟嘟声,一些条码数据丢失 A:这是因为条码传输速度太快,需要减慢条码的传输速度 Q.读取一个条码后,扫描器死机 A:由于扫描器的保护功能,如果读取的条码数据传输错误,会自动进入保护状态,从而防止数据丢失。如果把没有传输成功的数据读取后,扫描器可以从新使用。 如果发生这种现象,请仔细检查连线、协议。确认无误后,拔出扫描器,然后另换别的USB接口连接设备使用

常见视频格式、转换器及编码

常见视频格式 MPEG / MPG / DAT MPEG(运动图像专家组)是Motion Picture Experts Group 的缩写。这类格式包括了MPEG-1,MPEG-2和MPEG-4在内的多种视频格式。MPEG-1相信是大家接触得最多的了,因为其正在被广泛地应用在VCD 的制作和一些视频片段下载的网络应用上面,大部分的VCD 都是用MPEG1 格式压缩的( 刻录软件自动将MPEG1转换为DA T格式) ,使用MPEG-1 的压缩算法,可以把一部120 分钟长的电影压缩到1.2 GB 左右大小。MPEG-2 则是应用在DVD 的制作,同时在一些HDTV(高清晰电视广播)和一些高要求视频编辑、处理上面也有相当多的应用。使用MPEG-2 的压缩算法压缩一部120 分钟长的电影可以压缩到5-8 GB 的大小(MPEG2的图像质量是MPEG-1 无法比拟的)。MPEG系列标准已成为国际上影响最大的多媒体技术标准,其中MPEG-1和MPEG-2是采用相同原理为基础的预测编码、变换编码、熵编码及运动补偿等第一代数据压缩编码技术;MPEG-4(ISO/IEC 14496)则是基于第二代压缩编码技术制定的国际标准,它以视听媒体对象为基本单元,采用基于内容的压缩编码,以实现数字视音频、图形合成应用及交互式多媒体的集成。MPEG系列标准对VCD、DVD等视听消费电子及数字电视和高清晰度电视(DTV&&HDTV)、多媒体通信等信息产业的发展产生了巨大而深远的影响。 A VI A VI,音频视频交错(Audio Video Interleaved)的英文缩写。A VI这个由微软公司发表的视频格式,在视频领域可以说是最悠久的格式之一。A VI格式调用方便、图像质量好,压缩标准可任意选择,是应用最广泛、也是应用时间最长的格式之一。 MOV 使用过Mac机的朋友应该多少接触过QuickTime。QuickTime原本是Apple公司用于Mac计算机上的一种图像视频处理软件。Quick-Time提供了两种标准图像和数字视频格式, 即可以支持静态的*.PIC和*.JPG图像格式,动态的基于Indeo压缩法的*.MOV和基于MPEG 压缩法的*.MPG视频格式。 ASF ASF(Advanced Streaming format高级流格式)。ASF 是MICROSOFT 为了和的Real player 竞争而发展出来的一种可以直接在网上观看视频节目的文件压缩格式。ASF使用了MPEG4 的压缩算法,压缩率和图像的质量都很不错。因为ASF 是以一个可以在网上即时观赏的视频“流”格式存在的,所以它的图像质量比VCD 差一点点并不出奇,但比同是视频“流”格式的RAM 格式要好。 WMV 一种独立于编码方式的在Internet上实时传播多媒体的技术标准,Microsoft公司希望用其取代QuickTime之类的技术标准以及W A V、A VI之类的文件扩展名。WMV的主要优点在于:可扩充的媒体类型、本地或网络回放、可伸缩的媒体类型、流的优先级化、多语言支持、扩展性等。

视频文件格式和视频编码方式区别

目前网上的各种视频格式可以说是泛滥成灾,加上各个PMP(Portable Media Player,便携式媒体播放器)生产厂家的对自己产品在功能方面的炒作,使得很多人对视频格式的名称都是一头的雾水。 经常有些童鞋问我类似下面的问题。 A问我说:“我的MP4分明写着能播放AVI吗?为什么这一个AVI文件就播放不了?” B问:“我的MP4支持Mpeg-4啊,为什么Mp4文件不能播放呢?” 好的,下面我从最基本的概念给大家解释一下,顺便回答这两个问题 首先大家要清楚两个概念,视频文件格式和视频编码方式。 视频文件格式一般情况下从视频文件的后缀名就能看出来,比如AVI,Mp4,3gp,mov,rmvb等等。这些格式又叫做容器格式(container format),顾名思义就是用来装东西的,你可以把它想象成为一个便当盒,或者野餐篮(兄弟,你没吃早饭吧)。 通常我们从网上下载的电影都是有声音的(废话,难道你只看默片!众人扔香蕉皮),所以容器格式中一般至少包含有两个数据流(stream),一个视频流,一个音频流,就好比是一个便当盒里装着的配菜和米饭。 视频编码方式则是指容器格式中视频流数据的压缩编码方式,例如Mpeg-4,,,等等。而视频数据采用了何种编码方式是无法单单从文件格式的后缀上看出来的。就是说你无法从一个盖着盖子的便当盒外面看出里面装了什么配菜。 如果你想播放一个视频文件,第一步你的播放器(不论是软件的还是硬件的)要能够解析相应的容器格式,这一步也叫做解复用(demux),第二步你的播放器要能够解码其中所包含视频流和音频流。这样影片才能播放出来。 打个不太恰当的比方,播放器好比你雇用的一个试菜员,由他来品尝便当(视频文件),然后告诉你便当里装了什么东西。(没天理阿!我想自己吃,好的当然可以,0x00 00 01 B6 05 FF 36 1A 50 …… ……,俄~) 所以试菜员首先要懂得如何打开便当盒,还要知道吃的出来便当盒里装了什么配菜,这样你才能获得你想要的信息。 回过头来看前面的两个问题,用以上的比喻翻译一下。 问题A,我的试菜员能打开AVI这种便当的,为什么我不能知道里面装了什么? 回答很简单,虽然他能够打开便当,但是吃不出里面的东西是什么。理论上没有一个播放器能够播放所有的AVI格式的电影,因为你不知道我会往里面放什么配菜。 问题B,我的试菜员吃过Mpeg-4这种牛排阿,为什么不能打开Mp4这种便当盒呢? 这个问题通过翻译之后看起来已经不是问题了,Mpeg-4是视频编码方式,而Mp4是容器格式,两者本来就不是一个范畴里的东西。 好了下面简单介绍一下流行的视频格式。 AVI是音频视频交错(Audio Video Interleaved)的英文缩写,它是Microsoft公司开发的一种数字音频与视频文件格式,允许视频和音频交错在一起同步播放。 AVI文件的格式是公开并且免费的,大量的视频爱好者在使用这种文件格式。很多PMP 唯一能支持的格式就是AVI格式,一般的PMP都带有可以转换其他格式视频成为AVI格式的软件。 AVI文件采用的是RIFF(Resource Interchange File Format,资源互换文件格式)文件结构,RIFF是Microsoft公司定义的一种用于管理windows环境中多媒体数据的文件格

各种音视频编解码学习详解 h264

各种音视频编解码学习详解h264 ,mpeg4 ,aac 等所有音视频格式 编解码学习笔记(一):基本概念 媒体业务是网络的主要业务之间。尤其移动互联网业务的兴起,在运营商和应用开发商中,媒体业务份量极重,其中媒体的编解码服务涉及需求分析、应用开发、释放license收费等等。最近因为项目的关系,需要理清媒体的codec,比较搞的是,在豆丁网上看运营商的规范标准,同一运营商同样的业务在不同文档中不同的要求,而且有些要求就我看来应当是历史的延续,也就是现在已经很少采用了。所以豆丁上看不出所以然,从wiki上查。中文的wiki信息量有限,很短,而wiki的英文内容内多,删减版也减肥得太过。我在网上还看到一个山寨的中文wiki,长得很像,红色的,叫―天下维客‖。wiki的中文还是很不错的,但是阅读后建议再阅读英文。 我对媒体codec做了一些整理和总结,资料来源于wiki,小部分来源于网络博客的收集。网友资料我们将给出来源。如果资料已经转手几趟就没办法,雁过留声,我们只能给出某个轨迹。 基本概念 编解码 编解码器(codec)指的是一个能够对一个信号或者一个数据流进行变换的设备或者程序。这里指的变换既包括将信号或者数据流进行编码(通常是为了传输、存储或者加密)或者提取得到一个编码流的操作,也包括为了观察或者处理从这个编码流中恢复适合观察或操作的形式的操作。编解码器经常用在视频会议和流媒体等应用中。 容器 很多多媒体数据流需要同时包含音频数据和视频数据,这时通常会加入一些用于音频和视频数据同步的元数据,例如字幕。这三种数据流可能会被不同的程序,进程或者硬件处理,但是当它们传输或者存储的时候,这三种数据通常是被封装在一起的。通常这种封装是通过视频文件格式来实现的,例如常见的*.mpg, *.avi, *.mov, *.mp4, *.rm, *.ogg or *.tta. 这些格式中有些只能使用某些编解码器,而更多可以以容器的方式使用各种编解码器。 FourCC全称Four-Character Codes,是由4个字符(4 bytes)组成,是一种独立标示视频数据流格式的四字节,在wav、a vi档案之中会有一段FourCC来描述这个AVI档案,是利用何种codec来编码的。因此wav、avi大量存在等于―IDP3‖的FourCC。 视频是现在电脑中多媒体系统中的重要一环。为了适应储存视频的需要,人们设定了不同的视频文件格式来把视频和音频放在一个文件中,以方便同时回放。视频档实际上都是一个容器里面包裹着不同的轨道,使用的容器的格式关系到视频档的可扩展性。 参数介绍 采样率 采样率(也称为采样速度或者采样频率)定义了每秒从连续信号中提取并组成离散信号的采样个数,它用赫兹(Hz)来表示。采样频率的倒数叫作采样周期或采样时间,它是采样之间的时间间隔。注意不要将采样率与比特率(bit rate,亦称―位速率‖)相混淆。

视频格式及编码格式

一、常见的编码格式 1、无声时代的FLC FLC、FLI 是Autodesk 开发的一种视频格式,仅仅支持256 色,但支持色彩抖动技术,因 此在很多情况下很真彩视频区别不是很大,不支持音频信号,现在看来这种格式已经毫无用处,但在没有真彩显卡没有声卡的DOS 时代确实是最好的也是唯一的选择。最重要的是,Autodesk 的全系列的动画制作软件都提供了对这种格式的支持,包括著名的3D Studio X,因 此这种格式代表了一个时代的视频编码水平。直到今日,仍旧有不少视频编辑软件可以读取和生成这种格式。但毕竟廉颇老矣,这种格式已经被无情的淘汰。 2、载歌载舞的AVI AVI——Audio Video Interleave,即音频视频交叉存取格式。1992 年初Microsoft 公司推出 了AVI 技术及其应用软件VFW(Video for Windows)。在AVI 文件中,运动图像和伴音数据 是以交织的方式存储,并独立于硬件设备。这种按交替方式组织音频和视像数据的方式可使得读取视频数据流时能更有效地从存储媒介得到连续的信息。构成一个AVI 文件的主要参数 包括视像参数、伴音参数和压缩参数等。AVI 文件用的是AVI RIFF 形式,AVI RIFF 形式由字串 “AVI”标识。所有的AVI 文件都包括两个必须的LIST 块。这些块定义了流和数据流的格式。 AVI 文件可能还包括一个索引块。 只要遵循这个标准,任何视频编码方案都可以使用在AVI 文件中。这意味着AVI 有着非常好的扩充性。这个规范由于是由微软制定,因此微软全系列的软件包括编程工具VB、VC 都提供了最直接的支持,因此更加奠定了AVI 在PC 上的视频霸主地位。由于AVI 本身的开放 性,获得了众多编码技术研发商的支持,不同的编码使得AVI 不断被完善,现在几乎所有运 行在PC 上的通用视频编辑系统,都是以支持AVI 为主的。AVI 的出现宣告了PC 上哑片时代 的结束,不断完善的AVI 格式代表了多媒体在PC 上的兴起。 说到AVI 就不能不提起英特尔公司的Indeo video 系列编码,Indeo 编码技术是一款用于PC 视频的高性能的、纯软件的视频压缩/解压解决方案。Indeo 音频软件能提供高质量的压缩音

条形码码制解析大全

条形码类型及常见条形码介绍 条码是由一组按一定编码规则排列的条,空符号,用以表示一定的字符,数字及符号组成的信息。条码系统是由条码符号设计,制作及扫描阅读组成的自动识别系统。条码卡分为一维码和二维码两种。一维码比较常用,如日常商品外包装上的条码就是一维码。它的信息存储量小,仅能存储一个代号,使用时通过这个代号调取计算机网络中的数据。二维码是近几年发展起来的,它能在有限的空间内存储更多的信息,包括文字、图象、指纹、签名等,并可脱离计算机使用。 条码种类很多,常见的大概有二十多种码制,其中包括: Code39码(标准39码)、Codabar码(库德巴码)、Code25码(标准25码)、ITF25码(交叉25码)、Matrix25码(矩阵25码)、UPC-A码、UPC-E码、EAN-13码(EAN-13国际商品条码)、EAN-8码(EAN-8国际商品条码)、中国邮政码(矩阵25码的一种变体)、Code-B码、

MSI码、Code11码、Code93码、ISBN码、ISSN码、Code128码(Code128码,包括EAN128码)、Code39EMS(EMS专用的39码)等一维条码和PDF417等二维条码。 目前,国际广泛使用的条码种类有: EAN、UPC码——商品条码,用于在世界范围内唯一标识一种商品。我们在超市中最常见的就是EAN和UPC条码。 其中,EAN码是当今世界上广为使用的商品条码,已成为电子数据交换(EDI)的基础;UPC码主要为美国和加拿大使用; Code39码——因其可采用数字与字母共同组成的方式而在各行业内部管理上被广泛使用 ITF25码——在物流管理中应用较多 Codebar码——多用于血库,图书馆和照像馆的业务中 另还有Code93码,Code128码等。 除以上列举的一维条码外,二维条码也已经在迅速发展,并在许多领域找到了应用。 编码字符集 ①数字型数据(数字0~9); ②字母数字型数据(数字0~9;大写字母A~Z;9个其他字符:space,$,%,*,+,-,.,/,:); ③8位字节型数据; ④日本汉字字符;

视频编码跟音频编码常识新

视频与音频编码知识 动态链接:Adobe premiere pro 编码定义:原始的视屏图像数据和音频信息都包含有大量的冗余信息,编码就是压缩的过程,将信息中的冗余信息去掉。分为视屏编码和音频编码,两者是分开的。一般来说视频比那马方案往往决定了高清视频的画质高低(严格意义上还有码率因素).音频编码决定了起音质的好坏。 常用视频编码:XVID(DIVX的升级版),DIVX,H.264,MPEG-2\MPEG-4等。 Mpeg1:早期vcd使用,分辨率是352*288,压缩比低。Mpeg2:一般DVD使用,有NTSC(720*480)和 PAL(720*576),压缩比高于mpeg1. Mpeg4:目前使用最多的技术,avi文件始祖,大大提高压缩比,而质量堪比DVD Divx:基于mpeg4开发,有一定算法优先。 Xvid:divx技术封锁以后被人破解开发的,也是基于mpeg4的编码技术更先进,采用开放源码,画质更好。 H.261:早期的低码率编码,应用于352*288和176*144,

现在已不用。 H.263:在低码率下能够提供比H.261更好的图像效果,改进一些算法。 H.263+:h.263的改进型 H.264:H.264集中了以往标准的优点,高效压缩,与H.263+和mpeg4 sp相似。 Rm\rmvb:real 公司推出的应用于网络的高压缩编码,rm 是固定码率。Rmvb是动态码率(就是静态画面采用低码率,动态采用高码率) X264 X264是国际标准H.264的编码器实现,是一个开源encoder,得益于H.264的高效压缩性能,加之于X264的高效(编码速度快)实现,X264目前被广泛应用于DVDrip 领域。 封装格式(也叫容器) 所谓封装格式就是将已经编码压缩好的视频和音频按照一定的格式放到一个文件中,也就是说仅仅是一个外壳。 格式类型 AVI:微软在90年代初创立的封装标准,是当时为对抗

相关主题