Blog
Blockchain nur ein Hype?
- Details
- Kategorie: Blockchain
Während wir diese Zeilen schreiben, ist die generative KI das beherrschende Technologiethema in den Massenmedien und nicht die Blockchain, obwohl einige Kryptowährungen fast täglich neue Höchststände erreichen, allen voran Bitcoin. Aber seit Jahren hat keine Innovation aus der Informatik so viel öffentliche Aufmerksamkeit erhalten wie die KI. Natürlich hat die generative KI in den letzten Jahren grosse Fortschritte gemacht und jeder kann sich selbst davon überzeugen, indem er Bilder, Texte, Musik oder Design generiert. In diesem Beitrag geht es vor allem um das vergangene Hype-Thema Blockchain.
Um das Jahr 2017 herum war Blockchain wahrscheinlich die Lieblingstechnologie einiger neuer CTOs. Allzu oft entscheiden Unternehmen, Behörden oder die Politik nicht danach, was sich langfristig für die Nutzer oder die Gesellschaft auszahlt. Stattdessen basieren ihre Produktstrategien auf Technologien, die gerade hip sind, von den Medien gepusht werden oder von denen das Management überzeugt ist, dass sie sich als das „next big thing“ erweisen werden. Experten bezeichnen dies auch als Technology-driven Design (TDD). Vermutlich aus Mangel an technischem Verständnis bewegen sich Politiker und Manager viel häufiger in diesem TDD-Raum als Entwicklungsabteilungen.
Beispiele von gescheiterten IT-Technologien
Wer seit mehr als drei Jahrzehnten als Softwareentwickler tätig ist, hat schon viele kurzlebige Technologien und deren Misserfolge miterlebt. Einige davon wurden von der breiten Öffentlichkeit gar nicht wahrgenommen. Andere sind teilweise im Bewusstsein vieler Menschen verankert:
- 1990er Jahre VR (Virtuelle Realität): Virtuelle Realität wurde in den 1990er Jahren als der nächste grosse Trend angekündigt, mit Anwendungen von Spielen bis hin zur Bildung. Die Hardware war teuer, die Grafik schlecht und es gab nur wenige praktische Anwendungen. Erst mit modernen Technologien wie der Oculus Rift erlebte VR ein Revival. Es ist aber immer noch ein Insiderprodukt.
- Mitte der 2000er Jahre - Second Life: Damals wurde die virtuelle Welt "Second Life" als nächste Evolutionsstufe des Internets gefeiert, in der Menschen in einer 3D-Umgebung interagieren können. Die Plattform hatte zwar eine Nischen-Community, konnte aber nie den Massenmarkt erreichen. Der technische Aufwand und die fehlende Integration in den Alltag schreckten viele Nutzer ab.
- 2013 - Google Glass: Die Datenbrille von Google wurde als Zukunftstechnologie angepriesen, die Augmented Reality in den Alltag bringen sollte. Datenschutzbedenken, der hohe Preis und der fehlende praktische Nutzen führten dazu, dass das Produkt wenig Anklang fand. Google stellte den Vertrieb der ersten Version ein.
Noch zwei Beispiele aus der Softwareentwicklung:
- Mitte 2000er Jahre: Adobe Flash war ein Ärgernis mit vielen Sicherheitslücken. Mitte der 2000er Jahre sollte Microsoft Silverlight die Alternative werden. Doch mit dem Aufkommen von HTML5 und dem offenen Webstandard sind glücklicherweise sowohl Silverlight als auch Adobe Flash überflüssig geworden.
- Anfang der 2000er Jahre: SOAP (Simple Object Access Protocol) war Anfang der 2000er Jahre ein Standard für den Nachrichtenaustausch in Web Services und galt als unverzichtbar für verteilte Systeme. SOAP ist schwerfällig und komplex, was zu seinem Niedergang führte, als REST und JSON populär wurden, die einfacher und besser für moderne Webanwendungen geeignet sind. SOAP wird nur noch selten in Unternehmensumgebungen eingesetzt, hat aber ausserhalb dieses Bereichs stark an Bedeutung verloren.
Der Gartner Hype-Zyklus
Der Gartner Hype-Zyklus ist ein Modell, das die Entwicklung und Akzeptanz von neuen Technologien und Anwendungen beschreibt. Er wurde von Gartner Inc., einem IT-Marktforschungsunternehmen, entwickelt und wird seit 1995 veröffentlicht. Er besteht aus fünf Phasen, die den Lebenszyklus einer Technologie abbilden.
- Technologischer Auslöser (Technology Trigger): Eine potenzielle technologische Innovation löst einen Hype aus. Es gibt erste Erfolgsgeschichten und Medieninteresse, aber noch keine brauchbaren Produkte oder kommerzielle Machbarkeit.
- Gipfel der überzogenen Erwartungen (Peak of Inflated Expectations): Der Hype erreicht seinen Höhepunkt, wenn viele Erfolgsgeschichten, aber auch viele Misserfolge berichtet werden. Einige Unternehmen investieren in die Technologie, viele nicht.
- Tal der Enttäuschungen (Trough of Disillusionment): Das Interesse nimmt ab, wenn Experimente und Implementierungen nicht die erwarteten Ergebnisse liefern. Viele Anbieter der Technologie scheitern oder geben auf. Nur diejenigen, die ihre Produkte verbessern können, überleben.
- Pfad der Erleuchtung (Slope of Enlightenment): Es werden immer mehr Beispiele für den Nutzen der Technologie für das Unternehmen sichtbar und verständlich. Die Produkte werden weiterentwickelt und verfeinert. Mehr Unternehmen starten Pilotprojekte, konservative Unternehmen bleiben vorsichtig.
- Plateau der Produktivität (Plateau of Productivity): Die Technologie wird zum Mainstream und erreicht eine breite Akzeptanz und Anwendung. Die Kriterien für die Bewertung der Anbieter sind klarer definiert. Der Nutzen der Technologie ist offensichtlich.
Einige der oben genannten Technologien wie Google Glass oder auch Second Life haben diesen Hype-Zyklus ebenfalls durchlaufen. Sie haben es aber nie geschafft, das Plateau der Produktivität zu erreichen.
Hype Cycle 2016
Während ich diesen Beitrag schreibe, gehen wir 8 Jahre zurück und schauen uns den damaligen Hype Cyle an.
Die drei folgenden Technologien wurden einst als vielversprechende Innovationen gefeiert, haben aber die damaligen Erwartungen bisher nicht erfüllt. Einige stossen auf technologische Hürden, andere haben nur Nischenmärkte erobert, und einigen fehlt noch die breite Akzeptanz. Wahrscheinlich können nur wenige Leser spontan die Ideen hinter diesen Technologien erklären.
- 4D Printing bezeichnet die Herstellung von Materialien oder Objekten, die sich nach dem Druck durch äussere Einflüsse wie Wärme, Feuchtigkeit oder Licht dynamisch verändern können. Es wurde als Weiterentwicklung des 3D-Drucks gefeiert, mit potenziellen Anwendungen in der Medizin, Robotik und Architektur, z. B. für selbstheilende Materialien oder adaptive Strukturen. Trotz einiger Fortschritte in Forschung und Prototypen blieb der breite Durchbruch aus, da die Technologie teuer ist, die Materialvielfalt begrenzt bleibt und konkrete Anwendungen selten sind. Aktuell findet 4D Printing vor allem in spezialisierten Nischen wie der Materialforschung und Prototypenentwicklung Verwendung. Insgesamt gilt es als noch nicht gescheitert, aber deutlich hinter den ursprünglichen Erwartungen zurückgeblieben.
- Nanotube Electronics beschreibt den Einsatz von Kohlenstoff-Nanoröhren (CNTs) in elektronischen Bauteilen, um kleinere, leistungsstärkere und effizientere Geräte zu entwickeln. Obwohl CNTs aufgrund ihrer hervorragenden Eigenschaften als mögliche Nachfolger von Silizium gelten, haben hohe Produktionskosten und technische Hürden ihren breiten Erfolg bislang verhindert. Fortschritte wie CNT-basierte Transistoren und flexible Elektronik zeigen Potenzial, doch die Technologie bleibt bisher auf Nischenanwendungen wie Sensoren, Batterien und leichte Verbundmaterialien beschränkt. In der klassischen Elektronik hat sie den Durchbruch noch nicht geschafft, weshalb sie derzeit als verzögert, aber nicht gescheitert gilt. Langfristig könnte sie erfolgreich werden, wenn Skalierungsprobleme gelöst und Kosten reduziert werden.
- Augmented Reality (AR) bezeichnet die Überlagerung der realen Welt mit digitalen Inhalten wie Bildern, Texten oder Animationen, oft über Smartphones, Tablets oder AR-Brillen. AR wurde mit grossen Erwartungen verbunden, insbesondere für Anwendungen in Gaming, Bildung, Industrie und Einzelhandel, z. B. Pokémon Go, IKEA Place oder Schulungssoftware. Während AR in Nischen wie Navigation, Wartung und Design erfolgreich eingesetzt wird, blieb der grosse Durchbruch im Alltag aus, vor allem wegen hoher Hardwarekosten und begrenzter Inhalte. Fortschritte bei AR-Brillen wie der Apple Vision Pro zeigen Potenzial, aber der Massenmarkt wird erst langsam erschlossen. Insgesamt ist AR nicht gescheitert, sondern entwickelt sich stetig weiter, mit Erfolg in spezialisierten Bereichen und Zukunftsperspektiven für breitere Anwendungen.
Technologien scheitern oft, weil sie nicht den richtigen Zeitpunkt, die richtige Zielgruppe oder einen klaren Mehrwert finden. Häufig überschätzt der Markt ihre Fähigkeiten und unterschätzt gleichzeitig die Herausforderungen bei der Umsetzung. Der Hype Cycle hilft, solche Fälle besser zu verstehen und realistischer einzuschätzen, welche Technologien tatsächlich das Plateau der Produktivität erreichen können. Wie heisst es so schön: Wir neigen dazu, die Auswirkungen einer Technologie kurzfristig zu überschätzen und langfristig zu unterschätzen.
Blockchain und Kryptos
Wenn man Blockchain googelt, erkennt man sofort die starke Verbindung zu Kryptowährungen bzw. Bitcoin. Die Sinnhaftigkeit von Kryptowährungen soll hier nicht diskutiert werden. Dennoch stellt sich natürlich die Frage, welchen Einfluss die Kursschwankungen von Bitcoin auf wirtschaftliche Entscheidungsträger haben, Blockchain als Technologie in ihren Projekten einzusetzen. Laut Google Trends begann das Interesse an der Blockchain im Jahr 2017. Dies war in der Tat der Höhepunkt des Hypes um die Blockchain-Technologie, sowohl aufgrund des Krypto-Booms als auch aufgrund der massiven Aufmerksamkeit, die ICOs und andere Blockchain-Projekte erhielten. Ich vermute, dass die hohen Suchanfragen auf Google nach "Blockchain" ab 2021 vor allem auf Investoren zurückzuführen sind. Diese wollten mehr über die Funktionsweise von Kryptowährungen erfahren, um Investitionen zu tätigen.
Bereits im Jahr 2019 wurde ein Grossteil der Blockchain-Projekte zurückgefahren, was wahrscheinlich auch auf den Kursverfall des Bitcoins zurückzuführen ist. Ab 2022 dürften auch die letzten Entscheidungsträger erkannt haben, dass die Blockchain-Technologie ein Hype war. Andererseits ist die Technologie in den letzten Jahren immer ausgereifter geworden.
Es ist natürlich fatal, wenn Blockchain in Projekten eingesetzt wird, obwohl es bessere Alternativen gibt. Die Blockchain-Technologie ist eine spezielle Form der Distributed-Ledger-Technologie (DLT), die auf der Verkettung von Datenblöcken basiert. Natürlich sind Kryptowährungen nur einer von vielen Anwendungsfällen dieser Technologie.
Distributed Ledger Technology (DLT)
Die Nutzungsmöglichkeiten von DTL ist vielfältig und reichen von Smart Contracts aller Art über Kryptowährungen und den Datenaustausch bis zur Überwachung von Lieferketten. Die Zahl der Unternehmen, die DLT einsetzen, nimmt zu; im letzten Jahr waren es noch weniger als drei Prozent. Dennoch steckt die Technologie noch in einem frühen Entwicklungsstadium. Knapp die Hälfte der Befragten plant in absehbarer Zeit keine Projekte dazu.
Distributed Ledger Technology (DLT) und Blockchain werden oft synonym verwendet, unterscheiden sich jedoch grundlegend. DLT ist der Oberbegriff für Technologien, die digitale Register in einem dezentralen Netzwerk synchronisieren und verwalten, ohne dass eine zentrale Instanz erforderlich ist. Blockchain hingegen ist eine spezifische Form von DLT, bei der Daten in Blöcken gespeichert und kryptografisch miteinander verknüpft werden. Während Blockchain eine lineare, unveränderliche Struktur hat, kann DLT flexibel gestaltet sein, etwa in Form von Directed Acyclic Graphs (DAG). DLT bietet grössere Skalierbarkeit und Anpassungsfähigkeit, da es nicht auf die blockbasierte Organisation beschränkt ist. Blockchain überzeugt dagegen mit hoher Sicherheit und Transparenz, ist jedoch oft ressourcenintensiver und weniger effizient. DLT wird häufig in geschlossenen, permissioned Netzwerken verwendet, während Blockchains wie Bitcoin oder Ethereum in öffentlichen, permissionless Netzwerken arbeiten. Die Wahl zwischen DLT und Blockchain hängt stark vom Anwendungsfall ab: Blockchain eignet sich besonders für Anwendungen, die maximale Transparenz und Unveränderlichkeit erfordern, während DLT eine breitere Palette an Szenarien abdeckt, etwa in der Finanzindustrie oder im Supply-Chain-Management. Kurz gesagt: Jede Blockchain ist eine DLT, aber nicht jede DLT ist eine Blockchain.
Blockchain vs DLT
Blockchain-Projekte scheitern oft an hohen Kosten, begrenzter Skalierbarkeit, rechtlichen Hürden und fehlendem Mehrwert gegenüber bestehenden Lösungen. Insbesondere im Bereich Datenschutz und Compliance stossen viele öffentliche Blockchains an ihre Grenzen, da Daten nur schwer gelöscht oder verändert werden können. Zudem erfordern viele Anwendungsfälle eine höhere Performance und einen geringeren Energieverbrauch, was Blockchains mit traditionellen Konsensmechanismen nicht bieten können. DLT wird daher zunehmend bevorzugt, da es flexibler ist und besser an spezifische Anforderungen angepasst werden kann. Geschlossene, autorisierte Netzwerke bieten Vorteile wie höhere Effizienz, Datenschutz und einfachere Integration in bestehende Systeme. DLT ermöglicht auch eine kostengünstigere Implementierung und ist oft besser geeignet, regulatorische Anforderungen zu erfüllen. Während Blockchain für Anwendungen wie Kryptowährungen und Smart Contracts relevant bleibt, erfüllen DLT-Lösungen die Bedürfnisse vieler Unternehmen und Branchen besser.
Insgesamt zeigt sich, dass Blockchain nicht immer die optimale Lösung ist, während DLT eine breitere und praktikablere Alternative darstellt.
Gescheiterte Blockchain-Projekte
Grundsätzlich scheitern weit mehr als die Hälfte aller IT-Projekte. Dies geschieht jedoch meist in der Initialisierungsphase, in der das Scheitern noch günstig ist. Bei Blockchain-Projekten ist die Misserfolgsquote noch höher. Die Gründe für das Scheitern eines Projekts sind vielfältig, wie die beiden folgenden Projekte zeigen. Nicht selten scheitert ein Projekt auch an mangelnder Nutzerakzeptanz.
- Schulzeugnisse in Sachsen-Anhalt: Dieses Blockchain-Projekt für digitale Schulzeugnisse scheiterte aufgrund schwerwiegender Sicherheitslücken. Ziel des Projekts war es, Schulzeugnisse fälschungssicher und digital über Blockchain bereitzustellen, doch IT-Experten konnten das System manipulieren und gefälschte Zeugnisse erstellen. Diese Schwachstellen führten dazu, dass das Pilotprojekt im Jahr 2022 eingestellt wurde. Kritiker bemängelten zudem, dass die Blockchain-Technologie für diesen Anwendungsfall überdimensioniert und unnötig kompliziert war. Stattdessen könnten einfachere und sicherere Lösungen effizienter eingesetzt werden. Das Scheitern verdeutlicht die Herausforderungen bei der praktischen Umsetzung von Blockchain in Verwaltungsprozessen.
- TradeLens-Plattform: Diese Plattform, ein Gemeinschaftsprojekt von Maersk und IBM, sollte die globale Lieferkette mit Hilfe der Blockchain-Technologie revolutionieren. Ziel war es, die Transparenz und Effizienz im internationalen Handel zu erhöhen, indem Dokumente und Transaktionen dezentral und fälschungssicher verwaltet werden. Trotz der technischen Funktionalität scheiterte das Projekt daran, genügend Teilnehmer aus der Industrie zu gewinnen, da viele Unternehmen Bedenken hinsichtlich Datenfreigabe und Wettbewerbsneutralität hatten. Die mangelnde Akzeptanz führte dazu, dass TradeLens 2023 eingestellt wurde. Dieses Scheitern zeigt, dass die Blockchain-Technologie allein nicht ausreicht, um komplexe, globale Systeme zu transformieren - die Zusammenarbeit und das Vertrauen aller Beteiligten sind ebenso entscheidend.
Von der Blockchain zu KI
In den letzten Jahren hat sich der Fokus vieler Entwickler und Unternehmen von Blockchain auf künstliche Intelligenz (KI) verlagert. Während die Blockchain einst als revolutionäre Technologie galt, um zentrale Instanzen zu ersetzen und Transparenz zu fördern, hat sie die hohen Erwartungen oft nicht erfüllt. Viele Blockchain-Projekte sind an Skalierungsproblemen, hohen Kosten und mangelnder Praxisrelevanz gescheitert. KI hingegen hat in kürzester Zeit beeindruckende Fortschritte gemacht und wird in nahezu allen Branchen - von der Automatisierung über das Gesundheitswesen bis hin zum Kundenservice - breit eingesetzt. Ein wesentlicher Grund für den Boom von KI ist der unmittelbare wirtschaftliche Nutzen: Unternehmen können mit KI Prozesse optimieren, Kosten senken und datenbasierte Entscheidungen treffen. Darüber hinaus sind KI-Werkzeuge wie maschinelles Lernen und generative Modelle durch Frameworks wie TensorFlow und PyTorch leichter zugänglich geworden. Auch die Investitionen in KI sind enorm gestiegen, während die Blockchain nach dem Hype um Kryptowährungen und NFTs an Aufmerksamkeit verloren hat. Ein weiterer Faktor ist die breite Skalierbarkeit von KI-Lösungen, die sowohl für Start-ups als auch für grosse Unternehmen attraktiv sind. Im Gegensatz dazu bleibt die Blockchain oft auf Nischenanwendungen. Die Geschwindigkeit, mit der KI sichtbare Ergebnisse liefert, macht sie für Unternehmen attraktiver als Blockchain, die oft lange Implementierungszeiten erfordert.
Trotzdem bleibt Blockchain in einigen Bereichen relevant, insbesondere in Kombination mit KI, zum Beispiel für die sichere und transparente Verifizierung von Trainingsdaten. Insgesamt zeigt die Hinwendung zu KI, dass Unternehmen und Entwickler heute Technologien den Vorzug geben, die konkrete und unmittelbare Vorteile bieten. KI verkörpert genau das - eine sich entwickelnde Technologie, die sich zunehmend im Alltag bewährt und die Zukunft vieler Branchen prägen kann. Obwohl sie noch nicht vollständig ausgereift ist, fasziniert sie sowohl die Menschen, die sie anwenden, als auch die Unternehmen, die sie zunehmend nutzen können.
Fazit
Glücklicherweise haben die meisten Entscheidungsträger erkannt, dass Blockchain oft eine schlechte Wahl für ihren Anwendungsfall wäre. Die Datenstruktur einer Blockchain ist im Vergleich zu relationalen Datenbanken sehr einschränkend, da sie keine Flexibilität für Änderungen, komplexe Beziehungen oder grosse Datenmengen bietet. Während Blockchains für spezifische Anwendungsfälle wie Unveränderbarkeit, Transparenz und Dezentralisierung sinnvoll sind, bleiben relationale Datenbanken für die meisten Geschäftsanwendungen die bessere Wahl. Blockchains sollten daher nur dort eingesetzt werden, wo ihre Einschränkungen durch spezifische Vorteile gerechtfertigt sind. Ich könnte die negativen Eigenschaften einer Blockchain beliebig fortsetzen, insbesondere der hohe Energieverbrauch, die begrenzte Skalierbarkeit, die Komplexität und die Kosten machen Blockchain oft unpraktisch für viele Anwendungsfälle. Sie sollte daher nur in Szenarien eingesetzt werden, in denen ihre einzigartigen Eigenschaften unverzichtbar sind - ansonsten bleiben konventionelle Technologien die bevorzugte Wahl.
Medialer Hype um digitale Evolution
- Details
- Kategorie: Maschinelles Lernen
Die Zeitungen und Magazine der letzten 18 Monate sind überzogen von populärwissenschaftlichen Texten zu den Themen maschinelles Lernen, Big Data, Roboter, Supercomputer usw., dabei werden oftmals unnötige Ängste geschürt. Beispielhaft ist die Zunahme des Suchbegriffes "Internet of Things" bei Google:
Quelle: Google Trends
Besonders die Überhöhung der künstlichen Intelligenz (KI) als quasi übermenschliches Wesen führt bei den Menschen zu ökonomischen Existenzängsten. Übrigens benutze ich den Begriff KI ungern. Grundsätzlich halte ich den Computer für dumm, der glücklicherweise nach wie vor nach programmierten Algorithmen funktioniert.
Überhöhte populärwissenschaftliche Texte
Mich erinnert diese mediale Präsenz der "digitalen Evolution" an die Dotcom-Blase um die Jahrtausendwende. Auch damals schätzte die Berichterstattung den Zeithorizont des Fortschrittes falsch ein. Die angekündigten technologischen Errungenschaften konnten sich später mehrheitlich etablieren, jedoch benötigte dies rund ein Jahrzehnt und nicht nur 2 bis 3 Jahre. Bei jetzigem Hype werden zusätzlich die Potenziale einiger Technologien völlig überspitzt dargestellt.
Exemplarisch erwähne ich folgenden Artikel von Marco Metzler, NZZ vom 3.01.2016: "Uns braucht es bald nur noch als Konsumenten". In diesem Beitrag hat es einige oberflächliche Aussagen über die Fähigkeiten der KI:
- Google Translate wurde mit vielsprachigen Texten gefüttert und hat sich Übersetzen selbst beigebracht. Für das Verständnis der meisten Texte reicht das völlig. Übersetzer erhalten nur noch die anspruchsvollen Aufträge.
- Früher ersetzten Maschinen Muskelkraft, heute geistige Fähigkeiten. Neuerdings beherrschen Computer nicht mehr nur repetitive, einfache Tätigkeiten, sondern immer komplexere. Sie erkennen Muster besser als Menschen.
Ich weiss nicht, ob der Herr Metzler wenig Realitätsbezug zur Informatik hat oder ob er einfach im Medienhype mitschreibt. Wie gut bzw. schlecht Google Translate übersetzt, können Sie selbst nachprüfen. Schon bei der Übersetzung von einfachen Texten braucht es oftmals eine anstrengende kreative Improvisation, um darin eine Information zu erkennen. Es ist eine unbedachte Aussage, dass der Computer den Menschen bei der Mustererkennung übertrifft. Scheinbar hat Marco Metzler wenig Ahnung, für was der Begriff Mustererkennung alles steht.
Hardware und Software gleich digitaler Fortschritt
Oft wird in den Medien die Gesetzmässigkeit der verdoppelten Leistung der Computer zitiert. Vor circa 50 Jahren veröffentlichte Gordon Moore einen Aufsatz mit der Aussage der jährlichen Verdoppelung der Rechenleistung. Später korrigierte er diese Annahme und sprach von einer Verdoppelung alle zwei Jahre. Daraus leiten gewisse Medien und Buchautoren ein grundsätzlich exponentielles Wachstum des digitalen Fortschritts ab. Dabei scheinen sie zu vergessen, dass die Software von Menschen geschrieben wird und dieser sein Potenzial nur geringfügig steigern kann. Das Wort "Exponentiell" sollte bedacht eingesetzt werden, andernfalls verführt dies zu fragwürdigen Aussagen. Im Folgenden spricht der WEF-Gründer Klaus Schwab von exponentiellen Veränderung der Wettbewerbsverhältnisse; was immer er damit meint:
Quelle: SRF, WEF - «Da kommt ein Tsunami auf uns zu»
Sicherlich beflügeln schnellere Rechner das maschinelle Lernen, was die Bewältigung von komplexeren Aufgaben ermöglicht. Oft bestehen Systeme nebst integrierten Schaltungen auch aus Hardware, die nicht dem exponentiellen Wachstum unterliegt. Trotzdem, erst die zunehmende Miniaturisierung und Leistungssteigerung der integrierten Schaltkreise ermöglicht die heutigen automatisieren Systeme, die auf ihre Umwelt reagieren können.
Quelle: SRF ECO Spezial vom 9.11.2015 - Wenn Roboter Menschen ersetzen
Das überschätzte selbstfahrende Fahrzeug
Die Berichterstattung über selbstfahrende Autos war im letzten Jahr sehr unkritisch. Insbesondere überzogene Erwartung an das Google-Auto. In gewissen Berichterstattungen wird tatsächlich behauptet, dass Roboterautos bereits sicherer sind als herkömmliche PWs. In der Realität wäre ein Google-Auto im indischen Berufsverkehr nach einigen Metern auf der Strasse völlig überfordert. In manchen Ländern organisieren sich die Verkehrsteilnehmer mit Blickkontakt und mehr oder weniger freundlichen Gesten. Die Bewältigung vieler solcher alltäglicher Verkehrssituationen ist technisch ungelöst. Selbstfahrende Fahrzeuge müssen beispielsweise mit den anderen Verkehrsteilnehmern kommunizieren können, sei dies von Fahrzeug zu Fahrzeug oder mit dem Fussgänger. Autonome Autos orientieren sich mit unterschiedlichen Sensoren, bei starkem Regen oder unter Schneeverhältnissen funktioniert ein Teil dieser Systeme nicht mehr oder nur sehr eingeschränkt.
Eine erweiterte Strasseninfrastruktur, die mit den vernetzten autonomen Fahrzeugen kommuniziert, kann möglicherweise die vom Menschen erwartete hohe Sicherheit erbringen. Daher müssten die Regierungen bzw. privaten Strasseneigentümer und die unterschiedlichen Fahrzeughersteller dringend zusammenarbeiten, sonst wird nichts aus diesem Traum. Zudem wird die höchste Sicherheit im Strassenverkehr erst erreicht, wenn alle Fahrzeuge vom Computer gesteuert werden. Dieses gesellschaftliche Problem könnte sich als die grösste Hürde für den Erfolg des autonomen Fahrzeuges erweisen.
Fazit
Die Berichterstattung über die digitale Evolution in den Zeitungen und Magazinen ist momentan oberflächlich und völlig überhöht. Zu oft wird das mooresche Gesetz im Zusammenhang mit dem digitalen Fortschritt verallgemeinert. Dies führt zu einer übertriebenen Erwartungshaltung. Kaum eine andere Technologie jenseits der integrierten Schaltkreise wird über mehrere Jahrzehnte einen solchen exponentiellen Fortschritt erzielen. Trotz Fortschritten beim maschinellen Lernen bewegt sich die Befähigung für die Bewältigung komplexer Probleme sehr langsam.
Die maschinelle Übersetzung der von Menschen geschriebenen Sprache zeigt die Grenzen des maschinellen Lernens. Der Computer bzw. dessen Algorithmus versteht den Inhalt einer Sprache nicht und scheitert öfters an der Mehrdeutigkeit der Wörter. Die Übersetzungsqualität kann sicherlich noch gesteigert werden, jedoch bleiben die letzten paar Prozente zu einer hundertprozentigen korrekten Übersetzung mit der digitalen Technologie aus meiner Sicht unüberwindbar. Dieses nicht Hundertprozentige bzw. der überlegene Mensch werden wir vermehrt beobachten können, wo sich Maschinen an komplexen Problemen versuchen. Zu dieser Kategorie gehört auch das selbstfahrende Auto. Bedauerlicherweise gibt es noch immer Forscher wie Dileep George die das Gehirn mit einer Maschine gleichsetzen und es für reproduzierbar halten.
Quelle: SRF Trend vom 23.01.2016 - WEF 2016: Die 4. industrielle Revolution: Fluch oder Segen?
Dieser Herr hat ein Startup-Unternehmen gegründet, möglicherweise erleichtert diese Aussage in Kalifornien die Investorensuche.
Wahrscheinlich ist die Übertreibung teilweise der aktuell hohen Börsenkapitalisierung einiger US-Technologiefirmen wie Apple, Microsoft, Amazon, Alphabet usw. geschuldet. Die Übertreibungen an den Aktienmärkten untermauern solche überzogene Technologiestorys und beruhigen die Anleger. Allenfalls lässt es sich auch mit schüren von Ängsten um Arbeitsplatzverlust oder dem Wettbewerb Mensch gegen Maschine erklären. Somit kann kostengünstig die Auflage bzw. Klickrate von Büchern, Zeitungen und Onlinemedien erhöht werden.
Das Tablet-Ende oder PC-Revival?
- Details
- Kategorie: Hardware
Ich bin sehr skeptisch gegenüber Managern, die mit einem Tabletcomputer anrücken. In der heutigen Zeit sind Tablets noch immer für viele Aufgaben das falsche Werkzeug. Als im Jahre 2010 die ersten iPads auf den Markt kamen, wollten viele Manager ihre digitale Kompetenz mit diesem Lifestyle-Produkt demonstrieren. Mich verführt dabei oft der Gedanke, dass diese Chefs ihr Laptop und Personal Computer (PC) nicht beherrschen, andernfalls würden sie es kaum mit einem iPad substituieren.
Das Ende der Post-PC-Ära?
Von den Medien wurde in den beiden Jahren 2012 und 2013 oftmals die Botschaft der von Tablet-Boom geschlagenen sterbenden PC-Giganten in die Welt getragen.
Quelle: SRF 10vor10 vom 3.09.2013 - Video Microsoft kauft Nokia – was jetzt?
Erstaunlich sitzt Herr Hugenschmidt bei dieser Aussage vor einem PC und verkündet dessen Tod. Ein weiterer Beweis, welchen Schwachsinn die Medien teilweise verbreiten. In diesem Fall ist es das Schweizer Radio und Fernsehen, dass diese dämliche Aussage ungefiltert ausstrahlt.
Leistungsstarke Laptops werden dünner und Smartphones grösser
Nach 4 Jahren ist der Tablet-Hype im Abklingen, viele Konsumenten haben inzwischen den eingeschränkten Einsatzzweck erkannt. Zudem sind die Touchscreens der Smartphones grösser geworden und leistungsfähige Laptops kommen dünner und leichter daher. Die meisten können mit einem PC bzw. Notebook und ein Smartphone produktiv arbeiten, da erübrigt sich oftmals ein Gadget wie das iPad. Sicherlich für das Konsumieren von Videos und dem Lesen von Zeitungen ist ein Tablet die erste Wahl. Anderseits lese ich ein nicht farbiges E-Book lieber auf mit einem E-Paper-Display eines E-Book-Reader, dies funktioniert auch in gleissendem Sonnenlicht ausgezeichnet.
Abgrenzung PC und Tablet-Computer
Ich grenze die Tablets anhand des Betriebssystems, der Grösse des Displays und der Leistungsfähigkeit der Hardware vom PCs und den Laptops ab. Die iPads und alle bisherigen Android-Tablets zähle ich zu den Tablets. Das Windows Surface Pro 2 ist aufgrund des kleinen Displays für mich auch ein Tablet, indes ist die das Surface Pro 3 wegen seines grösseren Displays, dem Windows Betriebssystem, seiner leistungsfähigen Hardware und der optionalen Dockingstation sicherlich auch ein Laptop. Meine Windowssoftware, die ich im täglichen Gebrauch nutze, würden auf einem Surface Pro 3 funktionieren, zudem können zwei externe Monitore angeschlossen werden.
Eingabeproblem des Tablet-Computers
Zum Lesen der Zeitung, ob unterwegs oder auf der Couch ist das Tablet hervorragend geeignet. Doch viele Aufgaben verlangen für die produktive Arbeit eine physikalische Tastatur. Ich finde die Touchscreen-Tastatur eine Hinderung in meiner Produktivität. Die virtuelle Tastatur auf einer Glasscheibe genügt bestenfalls für einige hundert Wörter aber für längere Text ist diese völlig ungeeignet. Die Spracherkennung oder Stifteingabe mit Handschrifterkennung ist heute schon recht ausgereift. Für einige Anwendungen sicherlich eine alternative produktive Eingabemethode.
Spracherkennung als alternative Eingabemethode
Obwohl die Spracherkennung auf Tablets und Smartphones immer besser wird, ist diese bei der deutschen Sprache noch verbesserungsfähig. Zudem muss das Diktieren eines Textes gelernt werden, ich jedenfalls könnte diesen hier geschriebenen Eintrag nie und nimmer diktieren. Die Gliederung dieser Abfassung entstand erst während des Schreibens. Zudem ist das Diktieren von Texten in einer Umgebung mit Anwesenden kaum praktikabel. Damit ist Mobilität und das Diktieren von Texten keine gesuchte Kombination oder würden Sie in einem Kaffeehaus oder einem Zug einen Text diktieren?
Stifteingabe
Microsoft Surface und einige Android-Tablets unterstützen die Stifteingabe. Ich staunte, als ich zum ersten Mal mein Wacom Grafiktablett mit der Schrifterkennung von Windows nutzte. Diese erkennt sogar meine verbundene Schulschrift. Apple verbaut bisher kein Digitizer in ihren Tablets, schon aus diesem Grund würde ich nie ein iPad kaufen. Bei einigen Arbeiten kann ein präziser und drucksensitiver Stift sehr hilfreich sein und mit der Handschrifterkennung kann Text- oder Formeleingabe umgewandelt werden.
Fazit
In der zweiten Jahreshälfte des 2014 haben sich die positiv prognostizierten Zukunftsaussichten der Tablets verdüstert. Teilweise wird in der Presse gar von einem PC-Revival ausgegangen und vermehrt gibt es kritische Stimmen über der Nützlichkeit von Tablets. War diese dritte Gerätekategorie zwischen Smartphone und Laptops bzw. PC nur ein vorübergehender Hype, wir werden es sehen.
Die PCs und Notebooks werden nicht so schnell aussterben, wie von den Marktforschern prognostiziert. Die Medien sind immer auf der Suche nach auflagenstarken Schlagzeilen, dabei werden die Realität und der gesunde Menschenverstand oftmals bewusst ausgeschaltet. Die Kombination von Marktforschen und Schreiberlinge bzw. angeblicher IT-Experte wie Christoph Hugenschmidt führen zu solchen verzerrten Wahrnehmungen.
Weder im Büro noch im Privaten wird der PC in der nahen Zukunft aussterben. Medien und Marktforscher, die den Tod des PC verkündet haben, sollten sich einmal das Softwareangebot anschauen. Darunter gibt es für den Profi wie auch Hobbyisten beispielsweise Bild- und Videobearbeitung sowie Spiele, die nach leistungsstarker Hardware dürsten. Letztendlich sollte die Wahl des Gerätes auf die Nützlichkeit bei der Bewältigung der Aufgabenstellungen ausgewählt werden, dabei hat das Softwareangebot meistens Vorrang vor der Hardware. Auch das Betriebssystem, ob beispielsweise OS X oder Microsoft Windows ist bei der täglichen Arbeit oftmals irrelevant. Das Erlernen von Adobe Photoshop ist für viele Anwender weitaus aufwändiger, als sich jeweils auf die essentiellen Funktionen des anderen Betriebssystems einzustellen.
Seite 1 von 2