Protocolo de Transporte em Tempo Real
Um protocolo projetado para fornecer áudio e vídeo em tempo real em redes IP.
Um protocolo projetado para fornecer áudio e vídeo em tempo real em redes IP.
ICY é um protocolo e cabeçalho baseado em HTTP (usado por servidores de rádio na internet como Icecast e SHOUTcast) incorporado ao fluxo de áudio. O protocolo ICY permite que reprodutores de áudio solicitem metadados, que são então inseridos no fluxo em intervalos regulares. O cliente pode extrair e exibir essas informações, que podem
O Precision Time Protocol (PTP) é um padrão de tempo. Ele permite que outras tecnologias, como o protocolo 2110, mantenham a sincronização precisa entre áudio, vídeo, legendas ocultas e outros metadados. Ele oferece maior precisão do que o NTP (Network Time Protocol).
Secure Reliable Transport é um protocolo e tecnologia de streaming de vídeo de código aberto usado para transmitir fluxos de vídeo e áudio de alta qualidade em redes não confiáveis ou imprevisíveis, como a Internet pública. O SRT foi desenvolvido pela Haivision e ganhou ampla adoção nas indústrias de transmissão e streaming devido ao seu foco
O Carimbo de Tempo de Apresentação (PTS) é um conceito crucial usado para garantir a sincronização e o tempo de apresentação adequados de segmentos de mídia em um fluxo HLS. O PTS ajuda a manter a ordem e o tempo corretos dos componentes de áudio e vídeo durante a reprodução.
O Moving Picture Experts Group (MPEG) é um grupo de trabalho de especialistas que desenvolve padrões para compressão e transmissão de áudio e vídeo.
Taxa de bits codificada é a taxa de bits dos objetos de mídia de áudio ou vídeo compactados (ou seja, durante a codificação/transcodificação ABR), cada nível de taxa de bits representando diferentes níveis de qualidade em ABR. O conceito de taxa de bits codificada é inerente a várias definições relacionadas ao ABR: por exemplo, chave CMCD br, por exemplo, HLS Playlist Variant Stream parâmetro BANDWIDTH, por exemplo, DASH
Hardware ou software que codifica ou decodifica um fluxo de dados (por exemplo, áudio, vídeo, legendas ocultas).
O Common Media Application Format (CMAF) é um padrão Apple-Microsoft que visa simplificar os fluxos de trabalho definindo o uso simultâneo de vários métodos ABR (por exemplo, DASH, HLS) enquanto usa um conjunto de arquivos de mídia de áudio e vídeo.
Arquivo com extensão .mov que usa contêiner multimídia QuickTime File Format (QTFF) para armazenar áudio, vídeo e metadados.
O Streaming Video Wiki é organizado e mantido pela Streaming Video Technology Alliance, uma associação técnica global dedicada a resolver os desafios técnicos críticos de streaming de vídeo de alta qualidade em escala. Para mais informações sobre o SVTA ou perguntas sobre este Wiki, entre em contato com a SVTA.
© Aliança de Tecnologia de Streaming de Vídeo. Todos os direitos reservados.