Utilizzo dell'API Amazon Rekognition Segment - Amazon Rekognition

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Utilizzo dell'API Amazon Rekognition Segment

Il rilevamento dei segmenti di Video Amazon Rekognition nei video archiviati è un'operazione asincrona di Video Amazon Rekognition. Video Amazon Rekognition Segment API è un'API composita in cui è possibile scegliere il tipo di analisi (segnali d'azione tecnici o rilevamento delle riprese) da una singola chiamata API. Per informazioni sulla chiamata di operazioni asincrone, consulta Chiamata delle operazioni Video Amazon Rekognition.

Avvio dell'analisi dei segmenti

Per avviare il rilevamento dei segmenti in una videochiamata memorizzata. StartSegmentDetection I parametri di input sono gli stessi delle altre operazioni Video Amazon Rekognition con l'aggiunta della selezione del tipo di segmento e del filtraggio dei risultati. Per ulteriori informazioni, consulta Avvio di analisi video.

Di seguito è riportato un esempio JSON passato da StartSegmentDetection. La richiesta specifica che vengono rilevati sia i segnali d'azione tecnici che i segmenti di rilevamento delle riprese. Per i segmenti dei segnali d'azione tecnici (90%) e per i segmenti di rilevamento delle riprese (80%) sono richiesti filtri diversi per la sicurezza minima di rilevamento.

{ "Video": { "S3Object": { "Bucket": "test_files", "Name": "test_file.mp4" } "SegmentTypes":["TECHNICAL_CUES", "SHOT"] "Filters": { "TechnicalCueFilter": { "MinSegmentConfidence": 90, "BlackFrame" : { "MaxPixelThreshold": 0.1, "MinCoveragePercentage": 95 } }, "ShotFilter" : { "MinSegmentConfidence": 60 } } }

Scelta di un tipo di segmento

Utilizzare il parametro di input dell'array SegmentTypes per rilevare segnali d'azione tecnici e/o segmenti di rilevamento delle riprese nel video di input.

  • TECHNICAL_CUE: identifica i timestamp accurati in base ai fotogrammi per l'inizio, la fine e la durata degli indizi tecnici (cornici nere, barre colorate, titoli di apertura, titoli di coda, loghi di studio e contenuto del programma principale) rilevati in un video. Ad esempio, è possibile utilizzare i segnali d'azione tecnici per trovare l'inizio dei titoli di coda. Per ulteriori informazioni, consulta Segnali d'azione tecnici.

  • RIPRESA: identifica l'inizio, la fine e la durata di una ripresa. Ad esempio, è possibile utilizzare il rilevamento delle riprese per identificare quelle candidate per l'editing finale di un video. Per ulteriori informazioni, consulta Rilevamento delle riprese.

Filtraggio dei risultati dell'analisi

È possibile utilizzare il parametro di input Filters (StartSegmentDetectionFilters) per specificare l'affidabilità minima di rilevamento restituita nella risposta. All'internoFilters, utilizzate ShotFilter (StartShotDetectionFilter) per filtrare gli scatti rilevati. Usa TechnicalCueFilter (StartTechnicalCueDetectionFilter) per filtrare i segnali tecnici.

Per il codice di esempio, consulta Esempio: rilevamento di segmenti in un video archiviato.

Recupero dei risultati dell'analisi dei segmenti

Amazon Rekognition per video pubblica lo stato di completamento dell'analisi video in un argomento Amazon Simple Notification Service. Se l'analisi video ha esito positivo, chiama GetSegmentDetectionper ottenere i risultati dell'analisi video.

Di seguito è riportata una richiesta GetSegmentDetection di esempio. JobId è l'identificatore del processo restituito dalla chiamata a StartSegmentDetection. Per informazioni sugli altri parametri di input, consulta Ottenere i risultati dell'analisi di Video Amazon Rekognition.

{ "JobId": "270c1cc5e1d0ea2fbc59d97cb69a72a5495da75851976b14a1784ca90fc180e3", "MaxResults": 10, "NextToken": "XfXnZKiyMOGDhzBzYUhS5puM+g1IgezqFeYpv/H/+5noP/LmM57FitUAwSQ5D6G4AB/PNwolrw==" }

GetSegmentDetection restituisce i risultati per l'analisi richiesta e le informazioni generali sul video archiviato.

Informazioni generali

GetSegmentDection restituisce le seguenti informazioni generali.

  • Informazioni audio: la risposta include metadati audio in una matrice AudioMetadata di AudioMetadataoggetti. Possono essere presenti più flussi audio. Ogni oggetto AudioMetadata contiene metadati per un singolo flusso audio. Le informazioni audio contenute in un oggetto AudioMetadata includono il codec audio, il numero di canali audio, la durata del flusso audio e la frequenza di campionamento. I metadati audio vengono restituiti in ogni pagina di informazioni restituite da GetSegmentDetection.

  • Informazioni video: attualmente, Amazon Rekognition Video restituisce un VideoMetadatasingolo oggetto nell'array. VideoMetadata L'oggetto contiene informazioni sul flusso video nel file di input che Video Amazon Rekognition ha scelto di analizzare. L'oggetto VideoMetadata include il codec video, il formato video e altre informazioni. I metadati video vengono restituiti in ogni pagina di informazioni restituite da GetSegmentDetection.

  • Informazioni di paginazione – L'esempio illustra una pagina di informazioni di segmento. Puoi specificare il numero di elementi da restituire nel parametro di input MaxResults per GetSegmentDetection. Se esiste un numero di risultati maggiore di MaxResults, GetSegmentDetection restituisce un token (NextToken) utilizzato per ottenere la pagina di risultati successiva. Per ulteriori informazioni, consulta Ottenere i risultati dell'analisi di Video Amazon Rekognition.

  • Richiedi informazioni: il tipo di analisi richiesto nella chiamata a StartSegmentDetection viene riportato nel campo SelectedSegmentTypes.

Segmenti

I segnali tecnici e le informazioni sulle riprese rilevati in un video vengono restituiti in una serie di oggetti. Segments SegmentDetection La matrice viene ordinata in base ai tipi di segmento (TECHNICAL_CUE o SHOT) specificati nel parametro di input SegmentTypes di StartSegmentDetection. All'interno di ogni tipo di segmento l'array viene ordinato in base ai valori del timestamp. Ogni oggetto SegmentDetection include informazioni sul tipo di segmento rilevato (segnale d'azione tecnico o rilevamento delle riprese) e informazioni generali, quali l'ora di inizio, l'ora di fine e la durata del segmento.

Le informazioni sull'ora vengono restituite in tre formati.

  • Millisecondi

    Il numero di millisecondi dall'inizio del video. I campi DurationMillis, StartTimestampMillis, e EndTimestampMillis sono in formato millisecondi.

  • Timecode

    I timecode Video Amazon Rekognition sono in formato SMPTE in cui ogni fotogramma del video ha un valore di timecode univoco. Il formato è hh:mm:ss:frame. Ad esempio, un valore di timecode 01:05:40:07 verrà letto come un'ora, cinque minuti, quaranta secondi e sette fotogrammi. I casi d'uso del drop frame rate sono supportati da Video Amazon Rekognition. Il timecode del formato drop rate hh:mm:ss; frame. I campi DurationSMPTE, StartTimecodeSMPTE e EndTimecodeSMPTE sono in formato timecode.

  • Contatori per frame

    La durata di ogni segmento video viene espressa anche con il numero di fotogrammi. Il campo StartFrameNumber fornisce il numero di fotogramma all'inizio di un segmento video e EndFrameNumber il numero di fotogramma alla fine di un segmento video. DurationFramesfornisce il numero totale di fotogrammi in un segmento video. Questi valori vengono calcolati utilizzando un indice di frame che inizia con 0.

È possibile utilizzare il campo SegmentType per determinare il tipo di segmento restituito da Video Amazon Rekognition.

  • Indicazioni tecniche: il TechnicalCueSegment campo è un TechnicalCueSegmentoggetto che contiene la confidenza di rilevamento e il tipo di segnale tecnico. I tipi di segnali tecnici sono ColorBars, EndCredits, BlackFrames, OpeningCredits, StudioLogo, Slate e Content.

  • Ripresa: il ShotSegment campo è un ShotSegmentoggetto che contiene la confidenza di rilevamento e un identificatore per il segmento di ripresa all'interno del video.

Di seguito è riportato un esempio di risposta JSON dell'operazione GetSegmentDetection.

{ "SelectedSegmentTypes": [ { "ModelVersion": "2.0", "Type": "SHOT" }, { "ModelVersion": "2.0", "Type": "TECHNICAL_CUE" } ], "Segments": [ { "DurationFrames": 299, "DurationSMPTE": "00:00:09;29", "StartFrameNumber": 0, "EndFrameNumber": 299, "EndTimecodeSMPTE": "00:00:09;29", "EndTimestampMillis": 9976, "StartTimestampMillis": 0, "DurationMillis": 9976, "StartTimecodeSMPTE": "00:00:00;00", "Type": "TECHNICAL_CUE", "TechnicalCueSegment": { "Confidence": 90.45006561279297, "Type": "BlackFrames" } }, { "DurationFrames": 150, "DurationSMPTE": "00:00:05;00", "StartFrameNumber": 299, "EndFrameNumber": 449, "EndTimecodeSMPTE": "00:00:14;29", "EndTimestampMillis": 14981, "StartTimestampMillis": 9976, "DurationMillis": 5005, "StartTimecodeSMPTE": "00:00:09;29", "Type": "TECHNICAL_CUE", "TechnicalCueSegment": { "Confidence": 100.0, "Type": "Content" } }, { "DurationFrames": 299, "ShotSegment": { "Index": 0, "Confidence": 99.9982681274414 }, "DurationSMPTE": "00:00:09;29", "StartFrameNumber": 0, "EndFrameNumber": 299, "EndTimecodeSMPTE": "00:00:09;29", "EndTimestampMillis": 9976, "StartTimestampMillis": 0, "DurationMillis": 9976, "StartTimecodeSMPTE": "00:00:00;00", "Type": "SHOT" }, { "DurationFrames": 149, "ShotSegment": { "Index": 1, "Confidence": 99.9982681274414 }, "DurationSMPTE": "00:00:04;29", "StartFrameNumber": 300, "EndFrameNumber": 449, "EndTimecodeSMPTE": "00:00:14;29", "EndTimestampMillis": 14981, "StartTimestampMillis": 10010, "DurationMillis": 4971, "StartTimecodeSMPTE": "00:00:10;00", "Type": "SHOT" } ], "JobStatus": "SUCCEEDED", "VideoMetadata": [ { "Format": "QuickTime / MOV", "FrameRate": 29.970029830932617, "Codec": "h264", "DurationMillis": 15015, "FrameHeight": 1080, "FrameWidth": 1920, "ColorRange": "LIMITED" } ], "AudioMetadata": [ { "NumberOfChannels": 1, "SampleRate": 48000, "Codec": "aac", "DurationMillis": 15007 } ] }

Per il codice di esempio, consulta Esempio: rilevamento di segmenti in un video archiviato.