Risultati della ricerca

Vai alla navigazione Vai alla ricerca
Vedi (precedenti 20 | ) (20 | 50 | 100 | 250 | 500).
  • == Codici == * '''Schwartz Sequential Dropping''' – [[Metodo Schulze]] nella [[teoria delle decisioni]] ...
    2 KB (192 parole) - 10:17, 20 ott 2024
  • ...[Claude Shannon]] e sono attualmente di grande interesse nel campo della [[teoria dell'informazione]] grazie alle loro proprietà. Esistono due differenti ensemble di codici random: il ''random code ensemble'' (RCE) ed il ''linear code ensemble'' (L ...
    3 KB (446 parole) - 18:52, 25 lug 2018
  • ...ce una condizione necessaria e sufficiente per l'esistenza di un [[codice (teoria dell'informazione)|codice]] binario univocamente decodificabile per un insi ==Dimostrazione (per codici a prefisso)== ...
    4 KB (595 parole) - 09:28, 13 mar 2025
  • == Codici == * '''[[O (personaggio)|O]]''' – personaggio immaginario protagonista dei romanzi ''[[Histoire d'O (romanzo)|Histoire d'O]]'' (1954) e ''[[Ritorno a ...
    3 KB (336 parole) - 17:57, 10 mar 2025
  • ...dolo come una sequenza di 1 terminati da uno 0 (o viceversa). Il [[codice (teoria dell'informazione)|codice]] così ottenuto è un [[codice prefisso]]. [[Categoria:Compressione dei dati]] ...
    1 KB (126 parole) - 19:10, 28 feb 2017
  • ...'disuguaglianza di Singleton''' collega la [[cardinalità]] di un [[codice (teoria dell'informazione)|codice]] binario a correzione d'errore ''C'' con ''e'', [[Categoria:Teoria dei codici]] ...
    1 012 byte (152 parole) - 01:53, 9 ago 2016
  • Nella [[teoria dell'informazione]], la '''distanza di Hamming''' tra due [[Stringa (lingua ...discipline, tra le quali la [[teoria dell'informazione]], la [[teoria dei codici]] e la [[crittografia]]. Però, per confrontare stringhe di lunghezze differ ...
    4 KB (564 parole) - 13:14, 5 dic 2023
  • Un '''codice MDS (Maximum Distance Separable)''' è un [[codice (teoria dell'informazione)|codice]] per cui la [[diseguaglianza di Singleton]] vale [[Categoria:Teoria dei codici]] ...
    2 KB (256 parole) - 09:50, 16 lug 2017
  • ...a di canale, assieme alla [[codifica di sorgente]], rappresenta dunque uno dei vantaggi delle trasmissioni digitali rispetto a quelle [[trasmissione analo ...ione di codifica di canale fa uso di conoscenze proprie della [[teoria dei codici]]. ...
    9 KB (1 330 parole) - 18:35, 25 feb 2025
  • ...zione degli ultimi ''k'' simboli d'informazione, dove ''k'' è la lunghezza dei vincoli (''constraint length'') del codice. ==Dove si usano i codici convoluzionali== ...
    15 KB (2 010 parole) - 02:44, 3 feb 2025
  • ...er Elias|Elias]] è una [[codificazione entropica]] per la rappresentazione dei [[numero intero|numeri interi]]. Il [[codice (teoria dell'informazione)|codice]] ottenuto è un [[codice prefisso]]. Ogni parola ...
    2 KB (244 parole) - 16:44, 21 feb 2017
  • ...ti in un [[processo markoviano]]. L'algoritmo è usato per la decodifica di codici [[convoluzione|convoluzionali]] nel caso siano necessari elevati guadagni d ...zioni di rumorosità del canale sono tali da rendere difficile la ricezione dei dati. È applicato anche per il riconoscimento ottico di testi ([[Optical Ch ...
    4 KB (517 parole) - 17:00, 3 dic 2023
  • ...di Fibonacci''' è una [[codificazione entropica]] per la rappresentazione dei [[numero intero|numeri interi]] basata sulla [[successione di Fibonacci]]. [[Categoria:Compressione dei dati]] ...
    2 KB (243 parole) - 21:11, 29 set 2023
  • Nella [[trasmissione digitale]] dei dati, '''<math>E_b/N_0</math>''' ('''rapporto energia per bit/densità spett * <math>f_s</math> è la velocità dei simboli in [[baud]] o simboli al secondo. ...
    9 KB (1 367 parole) - 03:58, 23 lug 2024
  • ...etto nella [[teoria dell'informazione]] e nella [[Apprendimento automatico|teoria dell'apprendimento]].<ref name="mdl">{{cita web|url=http://www.mdl-research ...rità in un determinato insieme di dati può essere usata per [[Compressione dei dati|comprimere i dati]], cioè per descriverlo usando meno simboli di quant ...
    14 KB (1 915 parole) - 08:01, 27 set 2024
  • ...nta la [[fattorizzazione]] di una [[Funzione (matematica)|funzione]]. In [[teoria della probabilità]] e sue applicazioni, i grafi con fattori vengono utilizz ...i di correzione degli errori, come i [[Codice LDPC|codici LDPC]] e [[Turbo codici|turbo]]. ...
    7 KB (981 parole) - 11:28, 17 mar 2025
  • ...esto sorprendente risultato, noto anche come '''teorema fondamentale della teoria dell'informazione''', fu presentato per la prima volta da [[Claude Shannon] ...tica)|archiviazione di dati]]. Questo teorema è alla base della moderna [[Teoria dell'informazione]]. Shannon diede solo una traccia della dimostrazione. La ...
    12 KB (1 897 parole) - 00:45, 22 mag 2024
  • Nella [[teoria dell'informazione]], la '''Disuguaglianza di Fano''' mette in relazione l'e * [[Teoria dell'informazione]] ...
    4 KB (620 parole) - 23:25, 12 ago 2016
  • I '''turbo codici''' sono una classe di [[codifica di canale|codici di correzione degli errori]] ad alte prestazioni, che trovano impiego nelle I codici turbo sono stati teorizzati da [[Claude Berrou]], [[Alain Glavieux]] e [[Pu ...
    21 KB (2 966 parole) - 06:36, 13 mar 2025
  • ...ming(7,4).svg|thumb|upright=1.4|Raffigurazione grafica dei 4 bit di dati e dei 3 bit di parità e quali bit si applicano a quali bit]] Inoltre, se le colonne dei bit di parità sono rimosse nella tabella sopra ...
    24 KB (3 307 parole) - 13:15, 10 nov 2021
Vedi (precedenti 20 | ) (20 | 50 | 100 | 250 | 500).