Diskussion:MBit

Aus C64-Wiki
Zur Navigation springenZur Suche springen

Interessant wäre hier eine kurze Erläuterung, warum man etwas in Bit, oder MBit, messen sollte. Mich interessiert eigentlich doch nur, wieviele Bytes, KBytes oder MBytes ich pro Sekunde übertragen kann. Eine Aussage wie "eine 100 MBit Leitung" sagt nicht wirklich viel aus. Ist sicher historisch gewachsen..?

siehe 36-bit -- Polluks (Diskussion) 16:21, 13. Mär. 2015 (CET)
Wir beschreiben auch unwichtige oder uninteressante Begriffe der Vollständigerkeit halber. Wir sind ja auch eine Online-Enzyklopädie.
U.a. wird auch die Übertragungsrate von USB in MBit/s angegeben. --Jodigi (Diskussion) 22:01, 13. Mär. 2015 (CET)
So uninteressant/unwichtig ist das nicht. Die Übertragungsrate von Daten per DMA, zum Beispiel bei einer REU könnte man beim C64 schon in MBit angeben ohne das es einem peinlich sein muss so einen grossen SI-Präfix zu verwenden. :-) --BlackJack (Diskussion) 01:38, 14. Mär. 2015 (CET)
Das ist IMHO alles ein bisschen schwammig bis falsch. Übertragungsraten werden in Bit/KBit/MBit pro Sekunde gemessen und angegeben. Dabei stehen die Präfixe tatsächlich für die normalen SI-Präfixe, also ein MBit sind genau eine Million Bits und nicht 1024*1024. Es werden nicht Bytes angegeben weil bei Datenübertragungen auch Signalbits enthalten sein können, so dass die Anzahl nicht durch die Anzahl der Bits in einem Byte teilbar sein muss. Beispiel wären ein Startbit für jedes gesendete 8-Bit-Byte (Oktett) und ein Paritätsbit was dann 10 Bit pro Oktett Nutzlast macht. Wobei wir bei der nächsten Unsauberkeit beim Artikeltext wären: Ein Byte hat nicht zwangsläufig 8 Bit. Wieviele Bits in einem Byte sind hängt von der Architektur und deren Spezifikation ab. 8 Bit pro Byte sind nur deswegen für viele Leute scheinbar synonym weil sich das bei fast allen Systemen durchgesetzt hat. Bei Spezifikationen von Übertragungsprotokollen findet man aber auch heute noch oft den Begriff Oktett statt Byte um deutlich zu machen das es sich um 8 Bit handelt. --BlackJack (Diskussion) 01:38, 14. Mär. 2015 (CET)
So ist es, das hat BlackJack schon sehr gut ausgeführt. Bei Datenübertragungen, wo MBit/s vorkommt, kommt es verrechnungstechnisch und technisch nur auf das Optimum. Wieviel Byte netto darüber transportiert werden kann, ist ja nicht einheitlich und hängt von Protokollen, Codierungsschemata etc. ab. Das wäre sonst jedenfalls keine einheitliche Basis und nicht vergleichbar. Ist ja schon schlimm genug die Verwirrung bei der Festplattenkapazität ... ;)
Könnte man jedenfalls schon fast 1:1 in den Artikel übertragen. Wer mag's machen? Ich käme mir da jetzt komisch vor, mich mit fremden Federn zu schmücken. ;) --JohannKlasek (Diskussion) 11:16, 14. Mär. 2015 (CET)
Ok also wie ich das jetzt sehe ist 1) MBit allein für sich nicht sehr sinnvoll, es ist nur ein umgangssprachlicher Gebrauch und meint eigentlich MBit/s. 2) Weil Daten bitweise übertragen werden, bietet sich natürlich an diese Bit zu messen. 3) Weil ggf. zusätzliche Bits in den Datenstrom eingefügt werden, die mit den eigentlichen Daten nichts zu tun haben, wäre eine Angabe in z.B. Byte immer ungenau, da man nicht wüsste wie viele zusätzliche Nicht-Nutz-Bits da berücksichtigt werden, abgesehen von weiter oben liegenden Protokollen. Ich hoffe das stimmt soweit: =) Fragen: 1) Wie verhält sich MBit zu "kbps" (früher oft bei Modems zu lesen) und "Baud"? und 2) Beim C64 wird beim seriellen Bus in der Regel nie erwähnt, wie viele "Bit" dieser physikalisch maximal übertragen kann. Liegt das einfach daran, dass die Software nie die physikalischen Grenzen erreicht hat? Es würde wohl zu weit führen, aber durch was wird eigentlich die maximal mögliche Übertragungsrate (Bit pro Sekunde) begrenzt? Hat sich z.B. von USB 2.0 zu USB 3.0 tatsächlich etwas physikalisch verändert, was zu einer höheren Übertragungsrate geführt hat? -- ThunderBlade
Geschwindigkeitssteigerungen bei den Bussystemen kommen auch u.a. durch die Art der Kabelnutzung z.B. halbduplex oder vollduplex, Kabellänge, Qualität bzw. Anforderungen des Kabels, verwendete Ströme, Protokolle und Firmware zu stande.
Früher galt: baud = bps = Bit/s, wobei eigentlich baud = Symbol/s ist. --Jodigi (Diskussion) 23:20, 14. Mär. 2015 (CET)
Ein Baud war und ist immer Symbols/s, mit früher hat das nichts zu tun! Ein baud = ein Bit/s gilt nur, wenn das Symbol eben ein Bit ist. Das gilt dann nur im entsprechenden Kontext, wo dann diese Gleichheit vorausgesetzt werden kann. Früher hat man weniger auf die Bedeutung von baud geachtet, weil es eher selten war, dass ein Symbol abseits von einem Bit groß war und so hat sich das eher sprachlich eingeschlichen. --JohannKlasek (Diskussion) 09:15, 16. Mär. 2015 (CET)
Zu ThunderBlade: MBit (pro Sekunde) ist heutzutage größtenteils eine Marketing-Größe und hat normalerweise wenig mit realen Transferraten zu tun, selbst wenn man den Protokoll-Overhead rausrechnet. - USB 3.0 hat doppelt so viele Signalleitungen wie USB 2.0, insofern hat sich neben der verwendeten Symbolrate durchaus "tatsächlich" etwas verändert. - Die Serielle beim C64 sind quasi nur zweieinhalb Leitungen (Clock/Data/ATN) zwischen zwei Interface-Bausteinen (den CIAs), die selbst "dumm" sind und nur das durchreichen, was ihnen die CPU sagt; die Geschwindigkeit hängt also vom benutzten (von der CPU abgearbeiteten) Protokoll ab. Lässt man die CPU so schnell an den Leitungen wackeln wie sie kann, kommt man auf die Datenraten wie im Artikel Serielle Schnittstelle beschrieben; da der C64 aber nicht nur an den Leitungen lauschen kann, sondern die zu sendenden/die empfangenen Daten auch noch holen/wegschreiben muss, sind die Datenraten in der Praxis geringer. -- 1570 (Diskussion) 17:36, 15. Mär. 2015 (CET)
MBit/s ist nicht unbedingt großteils nur eine Marketing-Größe (vielleicht bei Bandbreitenangaben für Endkunden-Breitband-Internetanbindungen), sondern setzt heute üblicherweise das für die Übertragungstechnologie mögliche Maximum. Und das netto die verwendeten Partner nicht das voll nutzen können (weil Übergangsstellen im Upstream drosseln oder die Aushandlung der Parameter geringere Werte ergibt, die Endstellen zu langsam sind), dann ist das ja eine ganz andere Geschichte. Es sagt aber nicht, dass die Übertragungsrate nicht tatsächlich auch vorkommen kann (wenn auch der Durchschnitt darunter liegen wird). Insofern ist die Angabe als das der Technologie entsprechenden Maximums völlig korrekt und bleibt so vergleichbar. Siehe z.B. bei Netzanbindungen der Interfaces von Rechnern (z.B. 100 MBit/s Ethernet), Übertragungsraten und Bandbreitenlimit zu Internetprovidern (anbindungstechnisch).
Im Fall des seriellen Busses, wo das Limit primär von den beteiligten Kommunikationspartnern abhängt und diese üblicherweise klar und vorgegeben sind, der Kontext gewissermaßen bereits vorgegeben. Etwas anderes würde nur irritieren (z.B. das maximal Mögliche, das eine hypothetische CPU tatsächlich über die Leitungen bei den entsprechenden I/O-Chips schaffte). --JohannKlasek (Diskussion) 09:15, 16. Mär. 2015 (CET)
Also wie geht es hier nun weiter?
Artikel MBit belassen? Ihn in eine zusammengesetze Größe umzuwandeln Bit/s oder gleich in ein neuer Artikel zu Datenübertragunsrate schreiben, da einige nur die Transferraten interessiert. Da könnte auch gleich die Zusammenhänge zwischen baud und bps bzw. Bit/s erklärt werden. --Jodigi (Diskussion) 16:15, 17. Mär. 2015 (CET)