Information | |
---|---|
has gloss | (noun) (communication theory) a numerical measure of the uncertainty of an outcome; "the signal contained thousands of bits of information" entropy, selective information, information |
has gloss | eng: In information theory, entropy is a measure of the uncertainty associated with a random variable. The term by itself in this context usually refers to the Shannon entropy, which quantifies, in the sense of an expected value, the information contained in a message, usually in units such as bits. Equivalently, the Shannon entropy is a measure of the average information content one is missing when one does not know the value of the random variable. The concept was introduced by Claude E. Shannon in his 1948 paper "A Mathematical Theory of Communication". |
has gloss | eng: Information Entropy is a concept from information theory. It tells how much information there is in an event. In general, the more uncertain or random the event is, the more information it will contain. The concept of information entropy was created by a mathematician. He was named Claude Elwood Shannon. |
lexicalization | eng: Entropy (information theory |
lexicalization | eng: Entropy and information |
lexicalization | eng: Entropy |
lexicalization | eng: Information entropy |
lexicalization | eng: information |
lexicalization | eng: selective information |
subclass of | (noun) a system of measurement of information based on the probabilities of the events that convey information information measure |
Meaning | |
---|---|
Bavarian | |
has gloss | bar: Entropie is a Moß fian mittlan Informationsghoid oda aa Informationsdichtn vo oan Zeichnsystems. Da Begriff in da Informationstheorie is in Analogie zua Entropie in da Thermodynamik und Statistischn Mechanik entstandn. Beide Begriffe hom Gmoasamkeitn, de wo ma owa nua dann eindeitig erkennt, wenn Kenntnisse in beidn Fochgebietn vuahandn san. |
lexicalization | bar: Entropie |
Bulgarian | |
has gloss | bul: В рамките на теорията на информацията, централен обект на изследване е функцията ентропия на Шанън или липса на информация, която ще обозначаваме с S. |
lexicalization | bul: ентропия на Шанън |
Catalan | |
has gloss | cat: Lentropia de Shannon, formulada per Claude Shannon és una funció matemàtica que intuïtivament es correspon amb la quantitat de informació continguda o lliurada per una font dinformació. Aquesta font pot ser un text escrit en una llengua, un senyal elèctric, un fitxer dordinador o qualsevol (col·lecció de bytes). Des de la perspectiva dun receptor, com més informació diferent emet la font, més gran és lentropia (o incertesa sobre el que emet la font), i viceversa. A més el receptor rep la informació sobre el missatge, més entropia (incertesa) vis-à-vis quin missatge disminució de la llum daquest augment de la informació. La definició dentropia duna font que Shannon és tal que la font més és redundant, conté menys informació. En absència de limitacions, l'entropia és màxima per a una font on tots els símbols són igualment probables. |
lexicalization | cat: Entropia de Shannon |
Central Kurdish | |
has gloss | ckb: ئانترۆپیی زانیاری لە چەمکەکانی بیردۆزی زانیارییە کە دەبێژێت چ ڕادە زانیاری لە ڕووداوێکدا بوونی ھەیە. بە گشتی، ھەر چی ڕووداوێک گوماناوی یان بەھەڵکەوت بێت، زانیاریی زیاترێکی لە خۆی گرتووە. چەمکی ئانترۆپیی زانیاری لەلایەن کڵاد شاننی بیرکارەوە داھێنراوە. |
lexicalization | ckb: ئانترۆپیی زانیاری |
Mandarin Chinese | |
lexicalization | cmn: shang |
lexicalization | cmn: 熵 |
Welsh | |
has gloss | cym: Mewn damcaniaeth gwybodaeth, mesur o'r ansicrwydd a gysylltir â hapnewidyn yw entropi gwybodaeth. |
lexicalization | cym: entropi gwybodaeth |
German | |
has gloss | deu: Entropie ist ein Maß für den mittleren Informationsgehalt oder auch Informationsdichte eines Zeichensystems. Der Begriff in der Informationstheorie ist in Analogie zur Entropie in der Thermodynamik und Statistischen Mechanik benannt. Beide Begriffe haben Gemeinsamkeiten, deren Erkennen allerdings Kenntnisse in beiden Fachgebieten voraussetzt. |
lexicalization | deu: Entropie |
Modern Greek (1453-) | |
has gloss | ell: Η εντροπία στη θεωρία πληροφορίας είναι ένα «μέτρο αβεβαιότητας» που διακατέχει ένα σύστημα. |
lexicalization | ell: Εντροπία πληροφοριών |
Show unreliable ▼ | |
lexicalization | ell: εντροπία |
Esperanto | |
Show unreliable ▼ | |
lexicalization | epo: entropio1 |
Persian | |
has gloss | fas: مفهوم اساسی آنتروپی اطلاعات در نظریه اطلاعات در ارتباط با این مطلب است که یک سیگنال یا یک رخداد اتفاقی تا حد تصادفی است. آنتروپی اطلاعات که به نام انتروپی شانون هم شناخته میشود (متأثر از نام Claude E. Shannon ریاضیدان آمریکایی) در واقع میزان تصادفی بودن را به صورت یک سنجهٔ ریاضی گزارش میکند. |
lexicalization | fas: آنتروپی اطلاعات |
Finnish | |
Show unreliable ▼ | |
lexicalization | fin: haje |
lexicalization | fin: entropia |
French | |
has gloss | fra: Lentropie de Shannon, due à Claude Shannon, est une fonction mathématique qui, intuitivement, correspond à la quantité dinformation contenue ou délivrée par une source dinformation. Cette source peut être un texte écrit dans une langue donnée, un signal électrique ou encore un fichier informatique quelconque (collection doctets). Du point de vue dun récepteur, plus la source émet dinformations différentes, plus lentropie (ou incertitude sur ce que la source émet) est grande, et vice versa. Plus le récepteur reçoit dinformation sur le message transmis, plus lentropie (incertitude) vis-à-vis de ce message décroît, en lueur de ce gain dinformation. La définition de lentropie dune source selon Shannon est telle que plus la source est redondante, moins elle contient dinformation. En labsence de contraintes particulières, l'entropie est maximale pour une source dont tous les symboles sont équiprobables. |
lexicalization | fra: Entropie de shannon |
Galician | |
lexicalization | glg: entropía |
Hebrew | |
has gloss | heb: בסטטיסטיקה ובתחומים נוספים, ובעיקר בתורת האינפורמציה, אנטרופיה (באנגלית: Entropy) היא מדד לגודלו האפקטיבי של מרחב התפלגות. את מושג האנטרופיה המתמטית פיתח קלוד שאנון ב־1948. |
lexicalization | heb: אנטרופיה |
Croatian | |
Show unreliable ▼ | |
lexicalization | hrv: entropija |
Hungarian | |
has gloss | hun: A Shannon-féle entrópiafüggvényt Claude Shannon amerikai matematikus és híradástechnikai szakember vezette be a negyvenes évek legvégén az információ nevű fogalom fizikai mennyiséggé és mérhetővé tételére (bár már Shannon előtt is próbálkoztak ezzel, ld. lentebb). Ma e fogalom és tanulmányozása az információelmélet egyik alapja. |
lexicalization | hun: Shannon-entrópiafüggvény |
lexicalization | hun: entrópia |
Interlingua (International Auxiliary Language Association) | |
lexicalization | ina: entropia |
Indonesian | |
lexicalization | ind: entropy |
Italian | |
has gloss | ita: Nella teoria dellinformazione - e in rapporto alla teoria dei segnali - lentropia misura la quantità di incertezza o informazione presente in un segnale aleatorio. Da un altro punto di vista lentropia è la minima complessità descrittiva di una variabile aleatoria, ovvero il limite inferiore della compressione dei dati. La connessione con lentropia termodinamica sta nel rapporto di compressione: al diminuire della temperatura corrisponde la riduzione della ridondanza del segnale, e quindi laumento della compressione. Lentropia dellinformazione raggiunge un minimo che, in generale è diverso da zero, al contrario dellentropia termodinamica (vedi terzo principio della termodinamica). |
lexicalization | ita: entropia |
Japanese | |
has gloss | jpn: 情報量(じょうほうりょう、エントロピーとも)は、情報理論の概念で、あるできごと(事象)が起きた際、それがどれほど起こりにくいかを表す尺度である。頻繁に起こるできごと(たとえば「犬が人を噛む」)が起こったことを知ってもそれはたいした「情報」にはならないが、逆に滅多に起こらないできごと(たとえば「人が犬を噛む」)が起これば、それはより多くの「情報」を含んでいると考えられる。情報量はそのできごとがどれだけの情報をもっているかの尺度であるともみなすことができる。 |
lexicalization | jpn: 情報量 |
Show unreliable ▼ | |
lexicalization | jpn: エントロピー |
Korean | |
has gloss | kor: 정보 엔트로피는 클로드 섀넌이 제안한 개념으로 신호나 사건에 있는 정보의 양을 엔트로피의 개념을 빌려 설명한 것이다. |
lexicalization | kor: 정보 엔트로피 |
lexicalization | kor: 엔트로피 |
Latin | |
lexicalization | lat: entropia |
Latvian | |
lexicalization | lav: entropija |
Dutch | |
has gloss | nld: Entropie is de maat voor informatiedichtheid in een reeks gebeurtenissen. Informatie ontstaat als een gebeurtenis plaatsvindt waarvan vooraf onzeker was of deze daadwerkelijk zou gebeuren. In de informatietheorie wordt dit inzicht verder wiskundig uitgewerkt. |
lexicalization | nld: entropie |
Polish | |
has gloss | pol: Entropia – w ramach teorii informacji jest definiowana jako średnia ilość informacji, przypadająca na znak symbolizujący zajście zdarzenia z pewnego zbioru. Zdarzenia w tym zbiorze mają przypisane prawdopodobieństwa wystąpienia. |
lexicalization | pol: entropia |
Portuguese | |
lexicalization | por: entropia da informação |
Moldavian | |
has gloss | ron: În teoria informaţiei, entropia Shannon sau entropia informaţională măsoară incertitudinea asociată cu o variabilă aleatoare. Această măsură indică şi cantitatea de informaţie conţinută într-un mesaj, exprimată de obicei în biţi sau în biţi pe simbol. Când este exprimată în biţi, ea reprezintă lungimea minimă pe care trebuie să o aibă un mesaj pentru a comunica informaţia. |
lexicalization | ron: Entropie informaţională |
lexicalization | ron: Entropie informațională |
Show unreliable ▼ | |
lexicalization | ron: entropie |
Russian | |
has gloss | rus: Информацио́нная энтропи́я — мера хаотичности информации, неопределённость появления какого-либо символа первичного алфавита. При отсутствии информационных потерь численно равна количеству информации на символ передаваемого сообщения. |
lexicalization | rus: Информационная энтропия |
Show unreliable ▼ | |
lexicalization | rus: энтропия |
Slovak | |
Show unreliable ▼ | |
lexicalization | slk: entropia |
lexicalization | slk: entrópia |
Slovenian | |
has gloss | slv: Entropija ali Shannonova entropija je v informatiki količina, ki meri negotovost izzida poskusa povezanega s slučajno spremenljivko. Ta vrsta entropije določa za pričakovano vrednost količino informacije, ki jo pridobimo takrat, ko izvedemo poskus, in dobimo njeno vrednost. Ta entropija je torej merilo za količino informacije, ki jo dobimo s poznavanje vrednosti slučajne spremenljivke. |
lexicalization | slv: entropija |
Castilian | |
has gloss | spa: Entropía es un concepto en termodinámica, mecánica estadística y teoría de la información. Los conceptos de información y entropía están ampliamente relacionados entre sí, aunque se tardó años en el desarrollo de la mecánica estadística y la teoría de la información para hacer esto aparente. Este artículo versa sobre la entropía, en la formulación que hace de ella la Teoría de la información. Esta entropía se llama frecuentemente entropía de Shannon, en honor a Claude E. Shannon. |
lexicalization | spa: Entropia |
lexicalization | spa: Entropía de la información |
lexicalization | spa: entropía |
Sundanese | |
has gloss | sun: Entropi nyaéta konsép dina térmodinamika (tempo éntropi termodinamika), mekanika statistika jeung tiori information. Konsép éntropi jeung informasi kacida pakait raket, sanajan perlu sababaraha waktu keur ngawangun tiori mekanika statistika jeung tiori informasi sangkan jadi nyata. Artikel ieu ngeunaan éntropi informasi, formulasi tiori-informasi éntropi. Éntropi informasi leuwih ilahar disebut Éntropi Shannon keur ngahargaan ka Claude E. Shannon. |
lexicalization | sun: Éntropi informasi |
Swedish | |
has gloss | swe: Entropi definierades som ett begrepp inom informationsteorin av Claude Shannon 1948 för en informationskälla som genererar symboler. Baserat på sannolikheten för varje symbol definieras entropin över hela sannolikhetsfördelningen som: |
lexicalization | swe: entropi |
Thai | |
has gloss | tha: ในทฤษฎีข้อมูล เอนโทรปีของข้อมูล คือ เป็นลักษณะที่บ่งชี้ระดับการสุ่มของสัญญาณหรือเหตุการณ์สุ่ม ว่ามีมากน้อยเพียงใด หรือเราอาจมองอีกมุมหนึ่งว่าเป็นตัวบ่งบอกว่าสัญญาณอันหนึ่งบรรจุข้อมูลอยู่เท่าไร |
lexicalization | tha: เอนโทรปีของข้อมูล |
Turkish | |
Show unreliable ▼ | |
lexicalization | tur: entropi |
Ukrainian | |
has gloss | ukr: Інформаційна ентропія — в теорії інформації, ентропія є мірою невизначеності випадкової величини. Зазвичай, в якості інформаційної ентропії використовують ентропію Шенона. |
lexicalization | ukr: інформаційна ентропія |
lexicalization | ukr: Ентропія |
Vietnamese | |
has gloss | vie: Entropy thông tin là một khái niệm mở rộng của entropy trong nhiệt động lực học và cơ học thống kê sang cho lý thuyết thông tin. |
lexicalization | vie: Entropy thông tin |
Chinese | |
has gloss | zho: 熵的概念最先在1864年首先由魯道夫·克勞修斯提出,並應用在热力学中。後來在1948年由克劳德·艾尔伍德·香农第一次引入到信息论中来。 |
lexicalization | zho: 熵 |
Media | |
---|---|
media:img | Binary entropy plot sl.svg |
media:img | Binary entropy plot.png |
media:img | Binary entropy plot.svg |
media:img | Entropija met kovanca.svg |
media:img | Entropy InformationInSign2.png |
media:img | Entropy max.png |
media:img | Entrosum.gif |
media:img | Entrurne.gif |
Lexvo © 2008-2025 Gerard de Melo. Contact Legal Information / Imprint