Einen PC selbst zusammen bauen

Einen PC selbst zusammen bauen

Viele Menschen greifen auf die verschiedenen Angebote an Komplett-PCs zurück, da diese weniger Arbeit und Fachwissen erfordern. Doch in den meisten Fällen hat man bei solchen Computern keinen Einfluss auf die verbauten Komponenten, so dass hier oftmals billige Komponenten mit hochwertigen vermischt werden um die Preise stabil zu halten. Für weniger Geld kann man sich in der Regel bessere und leistungsstärkere Systeme selber zusammenstellen und auch selber zusammenbauen. Denn der Zusammenbau eines Computers ist kein Hexenwerk und kann von jedem schnell und einfach gelernt werden. Mit einem einfachen Kreuzschlitz-Schraubendreher und einer kleinen Spitzzange lässt sich ein solcher Computer bereits zusammenbauen. Sind also alle Komponenten erworben, kann man sofort mit dem Zusammenbau anfangen.

Den Arbeitsplatz vorbereiten

Um einen Computer zusammenzubauen kann praktisch jeder Platz verwendet werden. Wichtig ist hierbei vor allem, dass alle Komponenten in direkter Reichweite

liegen, der Computer auf einer ebenen Fläche positioniert werden kann und man eine gute Ausleuchtung der Arbeitsfläche erreicht. Viele Menschen bauen deshalb ihren Computer direkt auf dem Herd zusammen, da hier über den Dunstabzug eine starke und direkte Beleuchtung vorhanden ist. Hier sollte man aber für eine Unterlage sorgen, damit der Tower den Herd nicht zerkratzen kann.

Den Tower vorbereiten

Hat man einen neuen Tower für seinen neuen PC gekauft, sollte man diesen nun aufschrauben. Hierbei müssen in der Regel an der Rückseite des Towers vier Schrauben gelöst werden, dann können beide Seitenteile ohne Probleme abgezogen werden. Nun kann man den Tower so auf die Seite legen, dass man gut im Innenraum arbeiten kann.

Das Mainboard einbauen

Zunächst einmal sollte man das Mainboard aus der Verpackung nehmen und die Beschreibung des Mainboards in greifbare Reichweite legen. Dies erleichtert spätere Einbauschritte und erspart lästiges Suchen. Nun sollte man den Tower dahingehend untersuchen, ob die Schraublöcher im Tower selber bereits isoliert sind, oder die Isolationen des Mainboard Herstellers genutzt werden müssen. Denn ohne diese Isolation würde das Mainboard direkt auf dem Metall des Towers liegen, was in der Regel einen Kurzschluss und eine Beschädigung des Mainboards zur Folge haben würde. Nun kann man das Blech, in welches die verschiedenen Anschlüsse gestanzt wurden, an der Rückseite des Towers befestigen. Auch wenn bereits ein solches Anschlussblech vorhanden ist, sollte dies immer ausgetauscht werden, da nur das Blech des Mainboards exakt zu den Anschlüssen auf diesem passt. Ist das Anschlussblech eingesetzt, kann nun das Mainboard befestigt werden. Hierzu muss das Mainboard so in den Tower gelegt werden, dass die Anschlüsse hinten in das Lochblech hinein ragen und die Schraublöcher des Mainboards mit denen des Towers übereinstimmen. Bei der Befestigung der Schrauben hilft hier ein magnetischer Schraubendreher, aber auch mit einem herkömmlichen Schraubendreher ist dieser Schritt problemlos möglich. Man sollte allerdings darauf achten die Schrauben nicht zu fest anzuziehen, um Beschädigungen zu vermeiden. Die große Anzahl an Schrauben hält das Mainboard so problemlos in Position.

Den Prozessor einbauen – ein wichtiger Schritt mit Fingerspitzengefühl

Den Prozessor vorsichtig einsetzen um keine Pins zu beschädigen
Den Prozessor vorsichtig einsetzen um keine Pins zu beschädigen

Um den Prozessor einbauen zu können, muss man auf dem Mainboard zunächst die entsprechende Klemme lösen und die Abdeckung hochklappen. Nun ist Fingerspitzengefühl gefragt. Achten sollte man beim Einsetzen des Prozessors vor allem auf vorhandene Markierungen auf Prozessor und Mainboard, um diesen in der richtigen Position einzusetzen. Ein goldener Pfeil oder Punkt sorgt hier für Hilfe. Ist der Prozessor eingesetzt und liegt sicher und fest in der entsprechenden Aussparung auf dem Mainboard, kann nun die Klemme wieder geschlossen werden. Dies benötigt in der Regel ein wenig mehr Kraftaufwand. Da der Prozessor ohne Kühler nicht lange überleben würde, muss dieser nun ebenfalls eingebaut werden. Hier sollte man darauf achten, ob die Unterseite des Lüfters mit einer Leitpaste versehen wurde. Moderne Lüfter liefern diese Paste oftmals bereits aufgebracht mit, so dass man hier keine Arbeit mehr hat. Der Lüfter muss nun über dem Prozessor angebracht und entsprechend der Anleitung befestigt werden. Ein Blick in die Anleitung des Mainboards hilft hier dabei den passenden Anschluss für den Prozessorlüfter auf dem Mainboard zu finden und das entsprechende Kabel vom Lüfter dort anzuschließen.

Das Netzteil einbauen – nur vier Schrauben nötig

Nachdem der Prozessor eingebaut wurde, kann man sich dem Netzteil zuwenden. Dieses wird in der Regel in den entsprechenden Schacht oben an der Rückseite des Towers geschoben und von hinten verschraubt. So bleibt das schwere Netzteil sicher in Position und kann die gewünschte Leistung liefern. Das größte Kabel, bzw. der größte Anschluss am Kabelbaum des Netzteils ist in der Regel für die Stromversorgung des Mainboards zuständig. Ein Blick in die Dokumentation des Mainboards verrät, mit welchem Kabel das Netzteil angeschlossen werden sollte. Je nach Mainboard kann es hierbei notwendig sein, zwei Stecker miteinander zu verbinden und diese gemeinsam in den Steckplatz des Mainboards zu stecken. Dies ist jedoch weder kompliziert, noch schwierig, so dass dieser Schritt schnell erledigt sein sollte.

Den Arbeitsspeicher installieren – nichts einfacher als das

Ram / Arbeitsspeicher passt nur in einer Richtung auf das Mainboard
Ram / Arbeitsspeicher passt nur in einer Richtung auf das Mainboard

Auch der Arbeitsspeicher stellt beim Einbau kein Problem dar. Die entsprechenden Slots für den Speicher können sowohl leicht erkannt, als auch bestückt werden. Einfach die Klemmen an den beiden Enden des Slots öffnen und den Arbeitsspeicher in der richtigen Ausrichtung in den Slot drücken. Auch hier kann ein wenig Kraft von Nöten sein. Sitzt der Arbeitsspeicher richtig, schnappen die Klemmen praktisch von selber ein und sollten nur noch einmal auf den stabilen Sitz überprüft werden.

Festplatten und Laufwerke einbauen und anschließen

Um optische Laufwerke einzubauen, müssen in der Regel Abdeckungen aus der Front des Towers entfernt werden. Dies ist von innen jedoch leicht möglich. Das Laufwerk wird nun von vorne in den Tower geschoben, so dass es bündig mit diesem abschließt. Anschließend kann man das Laufwerk von der einen Seite aus mit zwei Schrauben befestigen. Festplatten hingegen werden von innen in die entsprechenden Halter geschoben und ebenfalls mit zwei Schrauben befestigt. Die notwendigen SATA-Kabel und die Stromkabel können nun einfach eingesteckt und mit dem Mainboard verbunden werden. Ist dies geschehen, sollte man den Tower einmal aufrecht stellen und die Laufwerke und Festplatten auch von der anderen Seite aus festschrauben. Somit bleibt alles fest an seinem Platz und kann nicht herum rutschen.

Die Grafikkarte – einfaches Stecksystem mit Tücken

Grafikkarten einstecken - an die Stromzufuhr bei Leistungsstarken denken
Grafikkarten einstecken – an die Stromzufuhr bei Leistungsstarken denken

Um die Grafikkarte einbauen zu können, müssen aus der Rückseite des Towers eine oder mehrere kleine Abdeckungen entfernt werden. Diese sind oftmals angeschraubt und müssen dem entsprechend erst einmal gelöst werden. Die Grafikkarte kann nun einfach in den entsprechenden PCI-Anschluss eingerastet werden. Hier muss man nur auf die Klemme achten, welche zuvor am Anschluss gelöst werden muss. Besonders leistungsstarke Grafikkarten benötigen darüber hinaus meistens noch einen eigenen Stromanschluss. Hier hat es sich als hilfreich erwiesen, die Karte zunächst mit dem Netzteil zu verbinden, ehe man die Karte einbaut. Dies verhindert, dass man blind nach den entsprechenden Anschlüssen an der Grafikkarte suchen muss.

Die Feinarbeit – die Frontanschlüsse anschließen

Eigentlich würde der Computer bereits funktionieren, doch anschalten lässt er sich noch nicht. Denn die an der Front des Towers liegenden Anschlüsse wie Ein-Aus-Schalter, Resetschalter, USB-Anschluss und Soundanschluss müssen noch mit dem Mainboard verbunden werden. Da diese Kabel in kleinen Steckanschlüssen enden, kommt hier die Zange zum Einsatz. Die richtige Position der Anschlüsse kann man hierbei ganz leicht der Beschreibung des Mainboards entnehmen. Sind all die Anschlüsse korrekt verkabelt, ist der PC einsatzbereit.

Praktische Tipps

Es hat sich bewährt die Kabel im inneren des Computers nach Möglichkeit mit Kabelbindern zu fixieren und zu verbinden. Nicht nur, dass so dieÜbersichtlichkeit im Inneren des Computers deutlich ansteigt, auch der Luftstrom für die Kühlung im Inneren des Computers wird so deutlich verbessert. Verfügt der Tower über weitere, eingebaute Lüfter können diese in der Regel ebenfalls über das Mainboard angeschlossen werden. Hierfür einfach in der Beschreibung nach den entsprechenden Anschlüssen suchen.

Was ist Ethereum?

Was ist Ethereum?

Die Blockchain-Technologie wird meistens mit Bitcoin in Verbindung gebracht —doch es gibt weitaus mehrere weitere Anwendungen, die über digitale Währungen weit hinausgehen. Bitcoin ist tatsächlich nur eine von mehreren Tausend Anwendungen, welche von der Blockchain-Technologie heute genutzt werden. Die Building Blockchain-Anwendungen erforderten noch bis vor Kurzem umfangreiches Know-how in den Bereichen Kryptografie, Codierung, Mathematik sowie mehrere erhebliche Ressourcen. Das hat sich allerdings geändert. Bislang unbekannte Anwendungen, von digital erfassten Immobilienvermögen über elektronischen Abstimmungen bis hin zu Handel und Compliance, werden mittlerweile aktiv entwickelt und extrem schnell umgesetzt. Dazu stellt Ethereum Entwicklern die richtigen Werkzeuge zur Verfügung, damit sie dezentrale Anwendungen erstellen können.

Eignet sich Ethereum auch für Anfänger?

Ethereum ist zunächst eine offene, auf Blockchain-Technologie basierende Softwareplattform, welche es Entwicklern ermöglicht, eine dezentrale Anwendung zu erstellen und diese einzusetzen.

Sind Ethereum und Bitcoin ähnlich? Einerseits schon, anderseits wiederum nicht.

Ethereum ist wie Bitcoin ein öffentliches dezentrales Blockchain-Netzwerk.

Obwohl es zwischen den beiden mehrere signifikante technische Unterschiede gibt, ist der essenzielle Unterschied, dass sich Ethereum und Bitcoin in Bezug auf Fähigkeit und Zweck erheblich voneinander unterscheiden. Bitcoin stellt eine spezielle Anwendung der Blockchain-Technologie zur Verfügung: Das ist ein elektronisches Peer-to-Peer System, welches online Zahlungen mit Bitcoin ermöglicht. Die Bitcoin-Blockchain wird hierfür verwendet, um den Besitz der Bitcoins zu verfolgen. Eine Ethereum-Blockchain richtet sich hingegen auf die Ausführung der Programmierverschlüsselung einer dezentralen Anwendung aus. Miner suchen in der Ethereum-Blockchain nicht nach Bitcoin — sie möchten

Ether verdienen, eine Krypto-Token Art, von der das Netzwerk angetrieben wird. Neben handelbaren virtuellen Währungen wird Ether ebenso von

Anwendungsentwicklern angewendet, um Dienstleistungen und Transaktionsgebühren im Ethereum-Netzwerk bezahlen zu können.

Es gibt auch eine weitere Art von Token, die angewendet wird, um Mining-Gebühren zu bezahlen, im Falle wenn Transaktionen im eigenen Block aufgenommen werden. Dieses bezeichnet man als Treibstoff, wobei jede Smart Contract Ausführung voraussetzt, dass eine bestimmte Treibstoffmenge mitgeschickt wird, um Miner dazu zu veranlassen, dieses in die Blockchain aufzunehmen.

Smart Contract: Was versteht man darunter?

Smart Contract bezeichnet einen Ausdruck, mit dem man einen Computercode beschreibt, der den Austausch von Inhalten, Geld, Aktien, Eigentum oder weitere Wertsachen erleichtern kann. Wird ein Smart Contract auf der Blockchain ausgeführt, so wird er zu einem selbstfahrenden PC-Programm, welches automatisch ausgeführt wird, sobald alle notwendigen Bedingungen erfüllt sind. Blockchain Smart Contracts laufen exakt so, wie sie programmiert wurden — ohne Ausfallzeiten, Zensur, Eingriffe Dritter oder Betrug.

Obwohl jede Blockchain problemlos Code verarbeiten, sind die meisten ziemlich eingeschränkt. Ethereum ist hingegen anders. Es macht keine begrenzten Angebote: Es ermöglicht Entwicklern, Anwendungen nach beliebiger Art zu entwickeln. Das heißt, dass Entwickler mehrere Tausend von verschiedenen Anwendungen entwickeln können, die über das, was wir bisher kennen, weit hinausgehen.

Ethereum als virtuelle Maschine

Blockchain-Anwendungen konnten vor der Schaffung von Ethereum eine eher begrenzte Anzahl von Anwendungen verwirklichen. Bitcoin und weitere Kryptowährungen wurden zum Beispiel nur als Peer-to-Peer Betrieb von digitalen Währungen entwickelt. Aus diesem Grund standen Entwickler vor einem Problem. Sie hatten zwei Optionen: Entweder erweitern Sie den Funktionsumfang, der von Bitcoin und weiteren Anwendungen angebotenen wird, was zeitaufwendig und durchaus kompliziert ist, oder Sie bemühen sich eine neue Blockchain-Anwendung und eine komplett neue Plattform zu entwickeln.

Der Schöpfer von Ethereum, Vitalik Buterin, konnte dieses Dilemma erkennen und daraus einen neuen Ansatz entwickeln.

Die Ethereum Virtual Machine (EVM), die Kerninnovation von Ethereum, ist eine komplettierte Turing-Software und läuft im Ethereum-Netzwerk.

Dadurch hat jeder, der ausreichend Speicher und Zeit zur Verfügung hat, die Möglichkeit alle Programme auszuführen — ganz abgesehen von der Programmiersprache. Die EVM macht den Erstellungsprozess von Blockchain-Anwendungen so effizient und einfach wie niemals zuvor. Anstatt eine komplett neue Blockchain für jede neue Anwendung erstellen zu müssen, ist

durch Ethereum die Erstellung von Tausenden unterschiedlicher Möglichkeiten zur Anwendung auf einer Plattform ermöglicht worden.

Wofür kann ETH verwendet werden?

Durch Ethereum können Entwickler dezentrale Anwendungen erstellen und diese implementieren. Eine dezentrale Anwendung — Decentralized Application (kurz Dapp) — dient ihren Nutzern zu einem gewissen Zweck. Bitcoin beispielsweise ist ein Dapp, der seinen Usern ein elektronisches Geldsystem zur Verfügung

stellt, um BTC-Zahlungen online zu tätigen. Dezentrale Anwendungen bestehen aus Verschlüsselungen, welchen in Blockchain-Netzwerken laufen – deswegen gibt es keine zentrale oder einzelne oder Stelle, von der sie gesteuert werden.

Jede zentralisierte Dienstleistung kann mit ETH dezentralisiert werden. Stellen Sie sich all die Vermittlungsdienste vor, die in mehreren Hundert

unterschiedlichen Branchen tätig sind: offensichtliche Dienste wie Darlehen von Banken oder Vermittlungsdienstleistungen, welche seltener in Betracht gezogen werden, wie zum Beispiel dem Registrieren von Abstimmungssystemen, Eigentumstiteln, der Vorschrifteneinhaltung und vieles mehr.

ETH kann ebenso zum Aufbau von autonomen dezentralen Organisationen (DAO) verwendet werden. Eine dezentrale autonome Organisation ist eine Organisation ohne eine einzige Führungskraft. Sie läuft auf Basis eines Programmiercodes, auf einer Smart-Contract-Sammlung, die auf der ETH-Blockchain geschrieben sind. Durch den Code werden die Strukturen und Regeln eines traditionellen Unternehmens ersetzt, wodurch die Notwendigkeit von einer zentralen Kontrolle und Mitarbeitern entfällt. Eine DAO gehört allen, die Token kaufen, allerdings bedeutet das Token nicht Eigentum und Kapitalaktien, Token fungieren eher als Stimmrechte.

Ethereum wird ebenso als Plattform für die Einführung von weiteren Kryptowährungen verwendet. Aufgrund des ERC20-Token-Standards, das von der ETH-Stiftung definiert wurde, können etliche Entwickler ihre individuellen Versionen des Tokens ausgeben und mit einem ICO (Initial Coin Offering) Geldsummen einsammeln. Die Emittenten des Tokens setzen in dieser Fundraising-Strategie einen bestimmten Geldbetrag fest, den sie verdienen wollen, stellen ihn in einem Crowdsale zum Angebot und erhalten dafür Ether.

Auf der Ethereum-Plattform wurden in den letzten Jahren mittels ICOs sogar Milliarden von US-Dollar eingesammelt. Ein ERC20-Token wird als eine der wertvollsten digitalen Währungen der Welt (EOS) bezeichnet.

ETH hat ebenso einen weiteren Token-Standard (ERC721) entwickelt, um einzigartigen Vermögenswerten folgen zu können. Einer der häufigsten Anwendungsbereiche für derartige Token sind digitale Sammelobjekte: Infrastruktur ermöglichtes, das Eigentum an knappen Digital-Gütern nachzuweisen. Derzeit werden viele Spiele mit dieser Technologie entwickelt, wie zum Beispiel der Erfolg von CryptoKitties — ein Spiel, bei dem die Spiele digitale Kätzchen züchten und sammeln kann.

Was macht einen guten Monitor aus?

Was macht einen guten Monitor aus?

Vielleicht sind Sie gerade dabei, sich einen Desktop- oder Notebook-PC auszusuchen, oder Sie haben bereits einen Laptop, sind aber nicht ganz zufrieden mit der Bildschirmfläche, die er bietet – so oder so ist es an der Zeit, sich einen Überblick über die umfangreiche Welt der Computermonitore zu verschaffen, damit Sie herausfinden können, welche(s) Produkt(e) genau Ihren Bedürfnissen entspricht.

Typen von Monitoren

Oberflächlich betrachtet scheint die Bildschirmgröße neben der Marke der einzige Unterschied zwischen Monitoren zu sein. Bevor wir uns damit beschäftigen, was sich hinter den einzelnen Bildschirmen verbirgt und was Ihr PC möglicherweise braucht, um die richtigen Ergebnisse zu erzielen, ist es am besten, die Arten von Monitoren sowie die verschiedenen Formen und Größen, in denen sie erhältlich sind, vorzustellen.

Tipp: Wer aufmerksam die Technik Nachrichten liest, bekommt Nuerungen und Produktvorstellungen mit

Die Entwicklung der Computermonitore

Die ersten Monitore, die früher als Video-Display-Units (VDUs) bezeichnet wurden, verfügten über eine Beleuchtung, damit Computeringenieure den Betriebszustand ihrer Komponenten überwachen konnten und wussten, ob ihre Geräte ordnungsgemäß funktionierten oder nicht. Mit der Weiterentwicklung der Technologie haben sich die Computermonitore in Bezug auf die Anzeigemöglichkeiten und die Art und Weise, wie sie dies tun, stark weiterentwickelt.

Um es einfach auszudrücken, hängt der Monitor, den Sie kaufen müssen, davon ab, wofür Sie Ihren Computer hauptsächlich verwenden werden, und dies kann in drei übergreifende Kategorien unterteilt werden: allgemeine/geschäftliche Nutzung, professionelle Visualisierung und Spiele. Nicht jeder Monitor ist gleich, da bestimmte physikalische Eigenschaften und integrierte Technologien eines bestimmten Produkts möglicherweise die besten Ergebnisse für die Ausführung von Spieleanwendungen im Gegensatz zu Office-Tools oder professionellen Grafikdesign-/Videobearbeitungsprogrammen liefern.

Zu berücksichtigende Merkmale

Oberflächlich betrachtet sind PC-Displays einfach nur Bildschirme, die verschiedene Bilder darstellen – aber hier gibt es natürlich viel mehr zu beachten, als man auf den ersten Blick sieht. Jetzt ist es an der Zeit, das Innere des Monitors zu betrachten, um zu sehen, wie die Anzeigehardware eines Computers funktioniert.

LCD vs. LED

Die Unterschiede zwischen LCD- und LED-Technologie sind ein wichtiger Faktor bei der Entscheidung, was für Ihr Endziel und Ihr Budget geeignet ist.

LCD
Die Flüssigkristallbildschirm-Technologie (LCD) wurde zuerst für Fernsehgeräte entwickelt, kam aber erst Mitte der 90er Jahre für Computermonitore auf den Markt. Der Name kommt von der Tatsache, dass diese Bildschirme aus zwei Glasscheiben bestehen, zwischen denen sich eine Flüssigkeit befindet. Von dort aus wird der Bildschirm in Tausende und Abertausende (manchmal Millionen) von Zeilen und Spalten unterteilt, besser bekannt als Pixel (ein Begriff, der in den 1960er Jahren als Abkürzung für „picture element“ geprägt wurde).

Die Hardware-Teile, die das Bild auf dem Bildschirm Ihres LCD-Monitors ausgeben, werden als Kaltkathoden-Leuchtstofflampen (CCFLs) bezeichnet. Diese Lampen verleihen Ihrem LCD-Monitor eine Lebensdauer von etwa 30.000 Stunden. Da die Technologie älter ist, sind diese Produkte normalerweise dicker und schwerer. Nur wenige von ihnen unterstützen Auflösungen über Full HD (1920×1080, Breite mal Höhe), und auch der Farbkontrastbereich kann manchmal eingeschränkt sein. Wenn Sie sich Gedanken über Ihren ökologischen Fußabdruck machen, ist die Quecksilberverschmutzung, die diese Monitore ausstoßen können, etwas, mit dem Sie sich am Ende des Lebenszyklus des Produkts befassen müssen.

Das ist ein negativer Effekt, der auftritt, wenn Sie Ihren Bildschirm eingeschaltet lassen und das zuletzt angezeigte Bild leicht auf dem Bildschirm verbleibt – auch wenn er ausgeschaltet ist.

LED
Technisch gesehen sind LED-Displays auch LCD-Monitore, da sie die gleiche Flüssigkeit zwischen ihren zweiteiligen Glasscheiben haben. Der Unterschied liegt in der Hardware, die verwendet wird, um das Bild auszustrahlen. Anstelle der Leuchtstofflampen eines LCD-Monitors werden Leuchtdioden (LEDs) verwendet. Dadurch sind LED-Monitore heller und verbrauchen weniger Strom als LCD-Bildschirme und haben letztlich eine Lebensdauer von etwa 50.000 Stunden.

Die Technologie für Leuchtdioden entstand in den frühen 1960er Jahren und konnte zunächst nur rote Farbe erzeugen. Natürlich hat sich die Farbfähigkeit dieser Dioden weiterentwickelt, aber die Effizienz und das hohe Leistungsniveau sind gleich geblieben. Auf dem Papier sind LED-Monitore aufgrund ihres beeindruckenden Farbkontrasts und ihrer Bildqualität zu einem höheren Preis erhältlich. Wenn Sie einen Bildschirm zum Spielen suchen, müssen Sie sich für LED entscheiden, da die Reaktionszeit im Vergleich zu LCD-Displays deutlich schneller ist.

Durch die LED-Technologie sind die meisten dieser Produkte außerdem dünner und leichter, sodass sie schnell und einfach transportiert und installiert werden können. Eine Sache, auf die Sie achten müssen, ist, dass LED-Monitore ein höheres Risiko des Einbrennens haben, also stellen Sie sicher, dass Sie einen Bildschirmschoner haben oder schalten Sie sie aus, wenn sie nicht in Gebrauch sind.

Auflösung und Größe

Bei der Suche nach Ihrem nächsten Monitor wird die Bildschirmgröße höchstwahrscheinlich das erste sein, worauf Sie achten. Wie bei jedem Display der Unterhaltungselektronik wird die Bildschirmgröße diagonal von der unteren Ecke zur gegenüberliegenden oberen Ecke oder umgekehrt gemessen. Derzeit reichen die Bildschirmgrößen auf Newegg bis zu 80″, aber der durchschnittliche Bereich, den Sie beim Kauf im Auge behalten sollten, liegt zwischen 19″ und 43″. Zusammen mit den in den vorherigen Abschnitten erwähnten unterschiedlichen Graden der Panel- und Hintergrundbeleuchtungstechnologie steigen die Bildschirmgröße und die Gesamtkosten eines Monitors im Allgemeinen gleichzeitig.

Jetzt ist ein guter Zeitpunkt, um das Bildseitenverhältnis von Monitoren und dessen Beziehung zu Bildschirmauflösungen vorzustellen. Definitionsgemäß ist das Seitenverhältnis die Breite eines Bildschirms im Verhältnis zur Höhe des Bildschirms. Beispielsweise waren einige der ersten verkauften Fernsehgeräte fast quadratische Bildschirme mit einer etwas größeren Breite als Höhe, was ein Seitenverhältnis von 4:3 ergab. Heute werden Auflösungen von Computerbildschirmen (obwohl sie dem Seitenverhältnis absolut ähnlich sind) in Breite mal Höhe in Pixeln gemessen und dargestellt.

1987 wurden der Welt erstmals Monitore vorgestellt, die 4:3-Bildschirme mit einer Auflösung von 640×480 Pixeln enthielten. Derzeit verwenden die meisten Computermonitore Breitbildformate und Full-HD-Auflösungen, wobei das beliebteste 16:9-Format mit 1920×1080 Pixeln ist. Durch die Verdoppelung der Breiten- und Höhenabmessungen innerhalb eines Seitenverhältnisses können Sie schärfere Auflösungen (klarere Bilder) erhalten, da mehr Pixel in das gleiche Seitenverhältnis gepackt werden. Natürlich haben sich diese Seitenverhältnisse und Auflösungen durch weitere Variationen, wie z. B. gebogene Displays und UltraWide-Monitore, weiterentwickelt.

Arten von Panels

Nachdem wir nun ein Verständnis für Flüssigkristallbildschirme und die beiden Arten von Hintergrundbeleuchtungstechniken haben, die dahinter stehen, ist es an der Zeit, sich mit den verschiedenen Panel-Typen von LCD-Monitorbildschirmen zu befassen und wie sie sich auf Ihre Computeranforderungen beziehen. Nur weil bestimmte Panel-Typen mehr kosten als andere, heißt das nicht, dass teurer generell besser ist. Es kommt darauf an, welche Eigenschaften des Paneltyps am besten für den allgemeinen Gebrauch, für Spiele oder für professionelle Video-/Bildbearbeitungsanwendungen geeignet sind, was im Endeffekt von der Farbwiedergabetechnologie, den Betrachtungswinkeln, den Reaktionszeiten und den Bildwiederholraten abhängt.

TN

Wenn Sie ein Hardcore-PC-Gamer sind, dann sind TN-Panels (Twisted-Nematic) vielleicht Ihr erster Bildschirm der Wahl. Computermonitore mit TN-Panels bieten die höchsten Bildwiederholraten und schnellsten Reaktionszeiten. Als eine der ältesten Anzeigetechnologien erzeugen TN-Panels das Bild durch die Verwendung von lichtdurchlässigen nematischen Flüssigkristallen in Glasplatten, einem Farbfilter und zwei linierten Filtern (einer vertikal, der andere horizontal). Aufgrund des Polarisationseffekts, der in TN-Panels auftritt, haben diese Arten von Monitoren die schlechteste Farbdarstellung und die schlechtesten Betrachtungswinkel. Auf der anderen Seite sind diese Monitore die erschwinglichsten Monitore, was sie perfekt für Gamer macht, die bereits eine Menge Geld für ihre Gaming-Battlestation ausgegeben haben.

Auch hier sollten TN-Panels die erste Wahl sein, wenn Sie die höchste Leistung aus Ihrem Gaming-PC herausholen wollen. Zum jetzigen Zeitpunkt sind TN-Panels die einzigen Monitore, die eine Bildwiederholrate von 240 Hz unterstützen. Das bedeutet, wenn Ihr System und Ihre Grafikkarte 240 Bilder pro Sekunde erzeugen und ausgeben können, wird der Monitor im Gegenzug 240 Bilder pro Sekunde wiedergeben und damit das schnellste und flüssigste visuelle Spielerlebnis auf dem Markt schaffen.

IPS

Im Vergleich zu TN-Panels bieten IPS-Panels (In-Plane-Switching) die besten Blickwinkel und die genauesten Farben. IPS-Panels wurden speziell entwickelt, um die Einschränkungen traditioneller TN-Panels auszugleichen. IPS-Computermonitore sind perfekt für Grafikdesigner oder Kameraleute geeignet, da die inneren Kristallflüssigkeiten ihre Ausrichtung auf einer einzigen Ebene anpassen (daher der Name), um aus jedem Betrachtungswinkel genaue, naturgetreue Farben zu zeigen.

Leider ist nichts wirklich perfekt, da die meisten IPS-Monitore der Einstiegsklasse nicht die gleichen schnellen Reaktionszeiten und Bildwiederholraten haben wie PC-Monitore mit TN-Panel. Außerdem sind IPS-Monitore aufgrund ihrer hohen Bild- und Farbqualität und ihres hervorragenden Betrachtungserlebnisses in der Regel teurer als TN-Panels. Nichtsdestotrotz kann ein IPS-Monitor mit der richtigen adaptiven Synchronisierungstechnologie (siehe G-SYNC und AMD FreeSync unten) und den richtigen Computerspezifikationen möglicherweise die beste Lösung für großartig aussehende, leistungsstarke Spiele sein.

OLED im Kommen

Die Technologie der organischen Leuchtdioden (OLED), die in vielen aktuellen Fernsehern und Smartphones zu finden ist, ist derzeit für Computermonitore in Arbeit. Die OLED-Bildschirmtechnologie besteht aus kohlenstoffbasierten Materialien, die Licht emittieren, wenn sie mit Strom betrieben werden. Insgesamt benötigen OLED-Displays keine Hintergrundbeleuchtung oder Filter, um ihre Farben und bewegten Bilder zu erzeugen. Sie sind auch großartig für Hersteller, weil sie einfach herzustellen und physisch leicht sind, um einfach exportiert und geliefert werden zu können.

Die Hauptattraktion von OLED-Monitoren wird sein, dass jedes Pixel des Displays seine eigene Lichtquelle hat, um letztendlich schwärzere Schwarztöne und wahrheitsgetreuere Farben auf der ganzen Linie zu erzeugen. 2021 könnte das Jahr sein, in dem wir mehr über diese Technologie für Computermonitore hören, also stellen Sie sicher, dass Sie hier für alle Updates zurückkommen.

VA

Bei den in den 90er Jahren entwickelten VA-Panels (Vertical-Alignment) befinden sich die Flüssigkristallzellen in einer vertikalen Position, wenn das Display nicht verwendet wird. Sobald Spannung an das Display angelegt wird, verschieben sich die Kristalle in eine horizontale Ausrichtung, um Licht und letztendlich Ihr Bild durchzulassen. Ähnlich wie IPS-Panels wurden VA-Computermonitore entwickelt, um eine alternative Option zu den Vorgängermonitoren mit TN-Panels zu bieten.

Mit anständigen Bildwiederholraten (in den meisten Fällen nicht ganz auf TN-Niveau) haben VA-Monitore mit ihren vielseitigeren Pixeln einen besseren Farbkontrast und eine größere Bildtiefe. Eine höhere Bittiefe bedeutet, dass mehr Farben auf jedem Pixel verwendet werden können. Obwohl VA-Monitore bessere Betrachtungswinkel als TN-Panels haben (in der Regel nicht so sehr wie IPS), sind sie aufgrund ihrer langsamen Reaktionszeiten besser für den allgemeinen Gebrauch geeignet, z. B. für Home-Streaming oder Büroanwendungen.

 

 

Mobilitätshilfen für Senioren – Augmented Reality und mehr für die Pflegebranche

Mobilitätshilfen für Senioren – Augmented Reality und mehr für die Pflegebranche

Für viele Menschen sind Bewegung und Mobilität Faktoren, die ihre Lebensqualität entscheidend beeinflussen. Nur wer sich regelmäßig bewegt, bleibt fit, vital und mobil. Wenn die Mobilität mit zunehmendem Alter immer weiter eingeschränkt wird, ist es wichtig, die Mobilität und die damit verbundene Selbstständigkeit und Lebensqualität so lange wie möglich aufrecht zu erhalten. Ab einem bestimmten Punkt sind jedoch oftmals Hilfsmittel nötig und sinnvoll.

Senioren, die in ihrer Gehfähigkeit eingeschränkt sind, können auf verschiedene Mobilitätshilfen zurückgreifen. Zur Überwindung von Treppen oder Stufen können hierzu Treppenlifte oder wahlweise Rampen genutzt werden.

Für Menschen, die körperlich nicht mehr auf Hilfsmittel verzichten können, sollte auch das Umfeld so barrierefrei wie möglich gestaltet werden. Dies erleichtert es der pflegebedürftigen Person enorm, ihren Alltag zu bewältigen. Aber auch pflegende Angehörige oder Pflegekräfte können Aufgaben des täglichen Bedarfs so deutlich einfacher handhaben.

Hierfür werden zunehmend neue Technologien und Methoden eingesetzt. Dank Augmented Reality (AR) ist es zum Beispiel möglich, einen individuellen Treppenlift in den eigenen vier Wänden digital zu betrachten und an die eigenen Wünsche und Bedürfnisse anzupassen – dies alles noch vor dem Kauf des Geräts. Hier unser Artikel zu VR / Virtual Reality für alle die nicht wissen um was es geht.

Der Weg zum Treppenlift in den eigenen vier Wänden

Eine der Mobilitätshilfen für Senioren im Alltag stellt definitiv der Treppenlift dar.

Viele Senioren leiden unter Gelenk- und Muskelproblemen. Diese verursachten Schmerzen beim Treppensteigen und jeder Schritt wird zur Qual. Oft werden dadurch Räume in nicht ebenerdigen Etagen unzugänglich, weil die Anstrengung und die Sturzgefahr überwiegen. Noch schlimmer ist es, wenn Sie beispielsweise im vierten Stock zu Hause sind und es keine Alternative zur Treppe gibt.

In all diesen Fällen ist die Anschaffung eines Treppenlifts oder Plattformlifts eine gute Idee. Treppenlifte werden nach Maß gefertigt und an der betreffenden Treppe installiert. Für Rollstuhlfahrer gibt es spezielle Plattformlifte. Beide Lifte können problemlos mit einer Hand bedient werden. Neben Rollstühlen können auch andere Lasten, wie Einkaufstaschen oder Möbel, mit einem Plattformlift transportiert werden.

Rampen können ebenfalls eingesetzt werden, um Rollstuhlfahrern das Überwinden von Stufen zu ermöglichen. Ebenfalls können diese für Menschen eingesetzt werden, die zwar gehen, aber keine Treppen mehr steigen können.

Neben Treppenliften und Plattformliften gibt es noch weitere Varianten, wie beispielsweise den Sessellift. Der Treppenlift mit Sitz befördert den Benutzer mit Hilfe eines Sitzes, der sich über Schienen an der Treppenwand nach oben bewegt, in höher gelegene Etagen.

Obwohl die Anschaffung eines solchen Lifts eine große Erleichterung darstellt, ist diese auch mit einigen Kosten verbunden. Es gibt unter Umständen jedoch die Möglichkeit einen Zuschuss zu beantragen. Ebenfalls können Lifte auch gemietet, anstatt gekauft werden – dies spart eventuell Geld.

Eine weitere Möglichkeit für Barrierefreiheit ist der Hausaufzug. Dank der platzsparenden, innovativen Antriebstechnik und der schmalen Kabine ist ein nachträglicher Einbau kein Problem. Wer sich für einen Hausaufzug entscheidet, kann nach Wunsch zwischen einem maßgeschneiderten Privataufzug, einem günstigeren Komfortaufzug und einer vertikal befahrbaren Plattform wählen.

Weiterführende Informationen zu verschiedenen Treppenliftmodellen, Preise und Finanzierung finden Sie auf dem Treppenlift Ratgeberportal treppenliftdirekt.de.

Mit Hilfe von Augmented Reality zum individuellen Treppenlift

Wer dringend einen Treppenlift benötigt oder sich einen Eindruck verschaffen möchte, wie der zukünftige Treppenlift in den eigenen vier Wänden aussehen würde, kann dies mit Hilfe eines 3D-Treppenliftkonfigurator tun. Dabei kommt die oben genannte AR-Technologie zum Einsatz.

Mit einer passenden App kann das passende Modell ganz einfach am Tablet oder Smartphone ausgewählt, personalisiert und in die häusliche Umgebung übertragen werden, ganz so als wäre der Lift bereits eingebaut. Dank moderner Technik und dreidimensionaler Bilder können Sie sich so einen sehr realistischen Eindruck verschaffen.

Neben einem detaillierten Eindruck bietet der Einsatz von Augmented Reality noch weitere Vorteile. So verkürzt sich zum Beispiel die Lieferzeit eines Treppenlifts von zehn auf zwei Wochen. Das liegt daran, dass das Treppenhaus und die Treppen bereits beim ersten Termin vermessen werden können.

Eine Visualisierung auf dem Tablet oder Smartphone zeigt, wie der zukünftige Treppenlift später im Haus aussehen wird. So wird schon im Vorfeld ein genaues Bild des eigenen Zuhauses skizziert und die Kaufentscheidung vereinfacht.

Mehr und mehr Digitalisierung in der gesamten Pflegebranche

Doch nicht nur der Kauf eines Treppenlifts wird mehr und mehr durch digitale Hilfsmittel erleichtert, mehr und mehr Mobilitätshilfen für Senioren erhalten vor und nach dem Kauf digitale Ergänzungen oder Unterstützung.

Zum Einsatz kommt hier oftmals die HoloLens Brille. Mit Hilfe dieser möchte das Unternehmen thyssenkrupp in Zukunft die gesamte Produktionskette digitalisieren. Alle Schritte vom Aufmaß bei Ihnen zu Hause, bis hin zur Fertigung.

Tyssenkrupp gilt als einer der führenden Hersteller von Treppenliften und anderen Mobilitätshilfen für Senioren.

Allgemeine Tipps für den Kühlschrankkauf

Allgemeine Tipps für den Kühlschrankkauf

Kühlschränke im Spiegel der Zeit – Wie andere technische Geräte auch, haben sich Kühlschränke in den letzten Jahrzehnten erheblich weiterentwickelt. Sie kühlen nun in verschiedenen Kühlzonen, können sich ideal auf die Bedürfnisse bestimmter Lebensmittel einstellen und bieten Zusatzfunktionen wie eine Abtauoption, einen Wasserspender sowie einen Eiswürfelspender. Insofern besticht ein hochwertiger Kühlschrank heute nicht nur durch eine hohe Qualität, sondern auch durch eine üppige Funktionsvielfalt sowie ein Maximum an Komfort. Wir erklären, was moderne Kühlschränke heute schon können und von welchen Extras Sie profitieren.

Eine Faustformel für die Platzermittlung

Ein zu kleiner Kühlschrank sorgt für eine ungewollte Askese, während ein zu großer Kühlschrank zu große Mengen an Energien beansprucht. Insofern sollte sich jeder Kunde vor dem Kauf eines Kühlschranks Gedanken über die nötige Kapazität machen. Die Verbraucherzentrale Rheinlandpfalz hilft bei der Entscheidung mit einer Faustformel weiter. Ihr nach benötigt ein Single einen Kühlschrank mit der Kapazität von 100 Litern. Für jede weitere Person im Haushalt kommen 50 Liter dazu, sodass nach dieser Formel eine fünfköpfige Familie einen Kühlschrank mit einem Stauraum von 300 Litern beansprucht.

Energiesparen leicht gemacht

Dass kleinere Kühlschränke geringere Energiemengen beanspruchen, ist allgemein bekannt. Doch auch die Energieeffizienzklassen helfen weiter. Ursprünglich gingen sie von A nach H, doch ist diese Wertung bereits obsolet geworden, weil der immer umweltbewusstere Kunde Haushaltsgeräte mit einem hohen Energieverbrauch mit Missachtung straft, sodass diese Haushaltsgeräte mit der

Zeit aus dem Verkehr genommen wurden. Somit ist die Energieeffizienzklasse A bei Kühlschränken heute die Norm. Wer sich selbst und der Umwelt etwas Gutes tun möchte, achtet deshalb lieber auf die Energieeffizienzklassen A+, A++ und A+++, denn mit jedem Plus lässt sich eine Energiemenge von ca. 20 % einsparen.

Warum nur zwischen Kühlfach und Eisfach unterscheiden?

Zugegeben, früher kannten Kühlschränke nur die Kühlung und Vereisung, doch im Laufe der Zeit sind weitere Entwicklungen hinzugekommen. So beherrschen fortschrittliche Kühlschränke auch die Kühlung bei annähernd 0 Grad, was empfindlichen Lebensmitteln wie Obst, Gemüse und Fisch zu einer noch längeren Haltbarkeit verhilft. Ob Biofresh, Vitafresh oder Longfresh, alle diese Begriffe bezeichnen eine solche Sonderkühlzone im Kühlschrank. Weitere Modelle unterscheiden bei der Sonderkühlzone sogar zwischen feucht und trocken, um weitere Haltbarkeitstage für die einzelnen Lebensmittel herauszuholen. So kühlen Obst, Früchte und Salate in der feuchten Sonderkühlzone am besten, während Fisch, Fleisch und Milch sich in der trockenen 0-Grad-Zone am wohlsten fühlt.

Das Eisfach ist nicht gleich Eisfach

Andere Modelle bieten ein Fach speziell für den Wein an, sodass der eigene Kühlschrank um ein Weinkühllager erweitert wird. Auch bei dem Eisfach lohnt sich ein differenzierter Blick, denn der Grad der Kühlung entscheidet signifikant über die Haltbarkeit der Produkte. So halten Eisfächer bei einer Minustemperatur von 6 Grad Celsius nur eine Woche frisch, während Eisfächer, die es auf eine Kühltemperatur von — 18 Grad Celsius bringen, die Woche in ein Jahr verwandeln.

Zahlreiche Sonderfunktionen für einen weiteren Nutzen und komfortablen Mehrwert

Neue Kühlschränke sind sogar an das Smart Home angeschlossen
Neue Kühlschränke sind sogar an das Smart Home angeschlossen

Eine digitale Temperaturanzeige ist ein nettes Gimmick und informiert passgenau über den jeweiligen Kühlungsgrad. Andere Modelle bieten einen Wasser- und einen Eiswürfelspender an. Gemeint ist damit die Möglichkeit, sich jederzeit ein gekühltes Grad Wasser einschenken zu können sowie sich an Eiswürfeln zu bedienen für den perfekten Sommerdrink. Andere Kühlschränke besitzen eine Kein-Geruch-Funktion, um die Übertragung strenger Gerüche von Lebensmitteln wie Fisch auf andere Lebensmittel zu verhindern.

LED-Leuchten wiederum simulieren Sonnenlicht im Sinne einer längeren Haltbarkeit, während eine antibakterielle Beschichtung mit dem Anspruch verfolgt wird, der Keimbildung entgegenzuwirken. Menschen mit einer gewissen Neigung zur Zerstreutheit profitieren von einem Warnton, wenn der Kühlschrank nicht richtig verschlossen wurde. Die Optionen Low-Frost und No-Frost beugen dem Abtauen vor. Während No-Frost dem Besitzer diese Arbeit vollständig abnimmt, reduziert Low-Frost die Frostbildung im Kühlschrank um immerhin 80 %.