Archiv für die Kategorie „Künstliche Intelligenz“

alpha go: der film

Mit einer ähnlich hohen wissenschaftlichen Relevanz wie 1996 mit dem Schachcomputer „Deep Blue“ gegen Schachweltmeister Garri Kasparow, so hat exakt 20 Jahre später ein Computerprogramm, „AlphaGo“, den südkoreanischen Großmeister des asiatischen Strategiespiels Go, Lee Sedol, geschlagen.

Eine Dokumentation in Spielfilmlänge (ca. 90 Minuten), die mittlerweile frei und kostenlos im Internet erhältlich ist, kann man sich hier anschauen:

Eigentlich galt Go bis zu diesem Zeitpunkt als von einer KI (künstlichen Intelligenz) „unknackbar“, hat es nicht nur mehr Felder pro Brett (19×19, statt 8×8), sondern lässt in Theorie mehr Züge zu, „als es Atome im Universum gibt“. Ferner ist es durch reines Herumprobieren, dem sogenannten Brute Forcing, auch nicht im Voraus berechenbar.

Es stellte sich heraus, für die Künstliche Intelligenz mussten nicht nur neue Algorithmen her (in diesem Fall der Monte-Carlo, da er mit Zufällen arbeiten kann), sondern gleich ein komplett neues neuronales Netz, das tiefe neuronale Netzwerk. Nach 9 Jahren Forschung wollte die Firma DeepMind dann genauer wissen, was die Eigenentwicklung wirklich drauf hatte: Sedol verlor vier von fünf Spielen.

Der Film ist nichts für Philanthropen, bietet allerdings neben interessanten Einsichten in menschliche Psychen auch viel Wissenswertes zum Thema Informatik und künstliche Intelligenz allgemein. Man darf gespannt sein, wo man hier 2036 angekommen sein wird; wer/welche Firma das Programm stellt; und welches Spiel die Menschheit noch für immer verloren geben muss (siehe auch: Der Alpha-Go-Schock und die Folgen, 22.12.16).

Flattr this!
Ether spenden // Donate Ether
Bitcoin-Spenden hier akzeptiert ^^

deine gpu, sonst nix

*…klaut die Stimme von Marsimoto, der sie von Quasimoto geklaut hat, am Ende ist es auch einfach nur eingeatmetes Helium, weil den Schallwellen gefällt das, und legt dann mal los…*

Keiner kümmert sich um GPUs/
Wie geht es deiner GPU/
Frag‘ dich: was macht Klicki-Bunti-Grafik/
Es ist deine GPU, sonst nix/

STRG+Escape, die GPU taucht da nicht auf/
wieso denkt der doofe Coder, dass ich GPU nicht brauch/
CPU, RAM, mein Benutzername, Tabellenansicht/
wieso sehe ich die Prozentzahl meiner GPU nicht/
meine GPU macht mir Grafik, das ist wichtig/
meinem Pinguin fehlt ohne GPU sein Gesicht/
CPU ist das Gehirn, GPU schiebt die Optik/
Pink und Rosa – GPU, sonst nix/

Keiner kümmert sich um GPUs/
Wie geht es deiner GPU/
Frag‘ dich: was macht Klicki-Bunti-Grafik/
Es ist deine GPU, sonst nix/

Windows, Linux, Unix – alles braucht hier Grafik/
wieso sehe ich nach Reboot GPU-Temperatur nicht/
Was heißt „off“, wieso hier Reload mit rechter Maustaste/
ohne GPU nützt mir Temperatur-Widget nix/
Treiber-Treiber, immer Treiber, offen oder proprietär/
Hauptsache „Diablo“ läuft, denn was nützt hier „Solitär“/
Laptop, PC, Smartphone oder Tablet/
ohne GPU kein einziger Pixel hier, nix fett/

Keiner kümmert sich um GPUs/
Wie geht es deiner GPU/
Frag‘ dich: was macht Klicki-Bunti-Grafik/
Es ist deine GPU, sonst nix/

Helfer-Tool hier, Helfer-Tool da/
der Aufwand für jede GPU – immerda/
das Erste, was ich an neuer Hardware einrichte/
ist GPU, weil der Rest läuft bereits aus der Kiste/
„out of the box“, IT, wie sie immer sein soll/
wieso funktioniert GPU nicht, was hat sie euch getan/
liegt es vielleicht an AMD oder NVIDIA/
oder Apple, oder ARM, vielleicht auch C&A/

Keiner kümmert sich um GPUs/
Wie geht es deiner GPU/
Frag‘ dich: was macht Klicki-Bunti-Grafik/
Es ist deine GPU, sonst nix/

Meinen Stromanbieter, den freut’s/
denn heute mine ich auf GPU die Kryptocoins/
Warnschild rot, die GPU schon über 90 Grad/
warum ist Geld verdienen hier so hart/
die GPU, ja sie macht die Träume wahr/
Traumfabrik in Plastik, wir sind so smart/
und jetzt auch die KI für ein paar Hunderter/
übermorgen fliegt mich GPU zum Mars, sonnenklar/

Keiner kümmert sich um GPUs/
Wie geht es deiner GPU/
Frag‘ dich: was macht Klicki-Bunti-Grafik/
Es ist deine GPU, sonst nix/

ich schalte das Teil ab, GPU muss sich schlafen legen/
sie lief zwei Wochen durch und muss nun Updates regeln/
hoffentlich ist nach Reboot meine GPU noch da/
bei shutdown -r now denke ich über Heirat nach/
doch was ist das, ist es ein Fussel oder doch ein Haar/
wie Schuppen von den Augen wird mir dann plötzlich klar/
Mist, schon wieder zwei Zentimeter Schicht drauf/
ich muss das Ding erstmal jetzt abstauben/

Keiner kümmert sich um GPUs/
Wie geht es deiner GPU/
Frag‘ dich: was macht Klicki-Bunti-Grafik/
Es ist deine GPU, sonst nix/

Flattr this!
Ether spenden // Donate Ether
Bitcoin-Spenden hier akzeptiert ^^

exit

2047. Eine App namens Infinitalk ermöglicht die Kommunikation mit Verstorbenen. Realisiert wird das durch ein KI-System in einer Cloud, das zuvor über ein Implantat hinter dem Ohr das gesamte restliche Leben der Teilnehmer aufgezeichnet hat. Die verstorbenen Menschen existieren weiter als digitale Entität, mit all ihren Fehlern und Vorzügen, Umgebungen, etwaigem Mobiliar und Gerätschaften.

CEO Linus (gespielt von Friedrich Mücke) sitzt gerade zusammen mit seinen drei weiteren Gründern des Startups, CTO und Hacker Bahl (Aram Tafreshian), Marketingleiter Malik (Jan Krauter) und seiner Ex-Verlobten Luca (Laura de Boer) in einem Hotel in Tokio, um den Verkaufs-Deal der App an den japanischen Investor Linden Li (David Tse) durchzuziehen. Li will die Applikation mit seinem Hologramm-Imperium verknüpfen. So soll die Kommunikation mit den Verstorbenen in Zukunft der Realität so nah wie möglich sein. Selbstredend würde der Deal alle vier zu Multimilliardären machen, was sich v.a. Malik bereits sehr gut vorstellen kann. Luca allerdings hat etwas dagegen. Sie vertraut Li und seinem Imperium nicht, sondern lieber auf ihre Intuition, die nichts Gutes verheißt. Als sich alle aus ihrem virtuellen Meeting wütend und ohne finale Unterzeichnung des Vertrags verabschiedet haben, verschwindet am nächsten Morgen Luca plötzlich spurlos.

Was wie ein Wirtschaftsthriller beginnt entwickelt sich im Laufe von nur 90 Sendeminuten („Exit“, ARD, Erstausstrahlung war am Mittwoch, 28.10.20, 20:15) zu einer dystopisch erzählten Geschichte der Wahren Liebe auf engstem Raum: das Hotel selbst wird in den seltensten Fällen verlassen, alternative Schauplätze sind entweder Rückblenden oder spielen sich in einem weißen, endlos wirkenden virtuellen Raum ab. Anleihen an „The Matrix“ aus 1999 sind durchaus gewollt und wirken überzeugend, sofern man von den Hacking-Tools symbolisiert durch Baumarktwerkzeuge einmal absieht. Auch sonst ist das dystopische Jahr 2047 in Tokio, das uns die ARD mit unseren hart verdienten GEZ-Gebühren auf die Flimmerkisten unserer Wohnzimmer zaubert, durchaus auf Niveau eines Hollywood-Cyberpunk-Blockbusters wie „Blade Runner“ (1982). Entsprechende Hausaufgaben wurden also gemacht, angefangen vom Interieur des Hauptschauplatzes, über die Hightech-Utensilien, die die Protagonistinnen und Protagonisten bei sich tragen, bis zur düsteren minimalistischen Musik und allen verwendeten Grafiken. Das muss und sollte man hier hoch anrechnen.

Nicht so gut bei mir kam hingegen die Überladung der Themen, sowie die zu großen Gemeinsamkeiten und das Mindfuck-Moment des Films zu „Welt am Draht“ an – hier hätte ich mir mehr Diversifikation gewünscht. Man merkt dem Stoff an, dass er hoffnungslos verkopft ist. Das mag zum einen an unserer deutschen Mentalität, zum anderen am derzeitigen Hype um Netflix liegen – denn hier hätte man ohne Probleme eine sechsteilige Miniserie daraus bauen können. Vielleicht war es auch so gedacht, man wollte es den betagten Standardzuschauern der ARD aber am Ende ersparen; der ich sicher keiner bin, schon aus Altersgründen. Es wären auch noch andere Themen als die Lovestory als Handlung und eine Wendung zum Ende in Frage gekommen, die eben nicht an Fassbinders Standardwerk aus 1973 erinnern. Wobei: wer erinnert sich aus meiner Generation wohl an „Welt am Draht“? Oder kennt es überhaupt? Eben. Niedriges Risiko.

Wer sich als Cyberpunk bezeichnet, der sollte diesen Film mögen und wird ihn sich ansehen müssen. Zumal man hier nebenbei ganz starke Schauspielerinnen- und Schauspieler-Leistungen zu sehen bekommt – kein Wunder, die Besetzung hat tiefe Wurzeln in der wertvollen Kulturleistung Theater. Schön, dass die deutschen Rundfunkanstalten (zumal aus meiner Gegend, sogar der SWR) auch mal eines meiner liebsten Genren abdecken! Ich selbst konnte mich jedenfalls nicht erinnern, wann ich mir das letzte Mal einen Kalendereintrag für eine Fernsehübertragung gesetzt hatte, die auch noch nicht live ist. Großes Kino, hat sich gelohnt! Aber auch zeitweise ganz schwere Kost für gute Nerven.
8/10

Flattr this!
Ether spenden // Donate Ether
Bitcoin-Spenden hier akzeptiert ^^

tesla-aktien kaufen jetze!

Man kann von Tesla halten was man will: US-amerikanische Marke; Verarbeitung nicht so gut wie bei deutschen oder japanischen Modellen; Akku brennt; der Gründer ist ein (Cov-)Idiot; Markennamen von einem bedeutenden europäischen Erfinder geklaut; etc. pp. You name it.

Aber eines kann man ihnen nicht vorwerfen: der Wille zur Innovation.

Bei Tesla träumt man Innovationen nicht nur oder zeichnet diese. Sie werden in Realität gesetzt. Und dabei haben sie anderen Firmen auf dem Planeten manches voraus. So z.B. ein fahrbares und nutzbares E-Automobil. Und ein zukunftsfähiges Konzept insgesamt. Ja, wahrscheinlich DAS Zukunftskonzept der Mobilität überhaupt für die nächsten Jahrhunderte. Und das „schon jetzt“.

Tesla model 3 già andata a ruba

Deshalb lohnt es sich genau jetzt in Tesla-Aktien zu investieren: durch den Split ging der Preis pro Aktie nämlich fast über Nacht von über 2.200$ runter auf aktuell 360€. Wer also ein paar Hunderter übrig hat, das sollten einige Menschen sein seit März, auch unter meinen Leserinnen und Lesern, der sollte sich (ein Depot eröffnen und) Aktien dieser Firma kaufen. Es ist sehr wahrscheinlich, dass die 1.000€ wieder schnell geknackt sein werden. Dann hätte man alleine durch eine Beteiligung fast das Dreifache wieder drin. Ende ist hier übrigens nach oben offen.

Man kann das Geld schnell mitnehmen oder halten. Ich würde halten. Einfach aus „Prinzip Zukunft“. Und es gibt da noch etwas, was ich bemerkenswert fand, die Meldung ist aber schon ein paar Monate her.

Wie wir alle wissen sind oder waren die Japaner mal das technologisch am weitesten fortgeschrittene Völkchen der Erde. So stark und so mächtig und sehr weit fortgeschritten, sie galten als „Schwan“ und flogen in Gesamtasien voraus, während andere Länder wie Südkorea, sogar Taiwan und China, hinterher wackeln mussten. Irgendwann in den 80ern war das so. Es mag sich mittlerweile gewandelt haben, ich bin auch der Meinung, insgesamt haben wir „alles schon erfunden“, also da wird kaum noch was Neues kommen für die Menschheit. Und das wechselt sich da unten nun munter ab, wer in der Parabel voraus fliegt. Ich tippe ja aktuell auf Südkorea, China braucht noch ein paar Jahre, vielleicht Jahrzehnte. Wobei man Taiwan mit dem Chipfertiger TSMC hier auch nicht vergessen darf.

Ich schweife ein bisschen ab, denn was ich eigentlich erzählen will kann man auch ohne dieses Wissen und die Vogelzug-Parabel faszinierend finden.

Die Japaner haben nämlich vor wenigen Monaten den Tesla Model 3 komplett zerlegt, die Ergebnisse wurden im Februar der Weltöffentlichkeit präsentiert. Denn was machst du als Hacker erst einmal, wenn du neue Technik verstehen willst oder schauen möchtest, ob die Technik wirklich neu ist? Na klar, du baust sie auseinander!

Das Wichtigste und das Unbekannteste, das sie fanden, waren zwei individuell designte KI-Chips, von Tesla komplett selbst entwickelt(!), mit entsprechend inhouse-entwickelter Software:

der KI-Chip und das Mainboard des Tesla Model 3
Oben: der Computer des „Model 3“ – ein KI-Chip regelt das autonome Fahren, der andere das gesamte Infotainment-System

Im Kern fanden die Japaner heraus, „ja gut, das Hardware-Ensemble ist eben dafür gut, dass dieses Auto sich selbst steuern kann und die massive Infotainment-Anlage“. Und das stimmte dann auch. Doch was noch viel bedrückender war aus der Sicht der japanischen Ingenieure:

Die Hardware, die oben zu sehen ist, ist 6 Jahre ihrer Zeit voraus!

Tesla ist damit nicht nur Konkurrenten zeitlich enteilt, Tesla ist mit dieser Hardware einer kompletten Industrie enteilt.

„But technological hurdles are not the reason for the delay, according to the Japanese engineer who said „we cannot do it.““

Einer Industrie, die in Europa alleine 3,65 Millionen Menschen beschäftigt – bei Tesla arbeiten aktuell nur 48.000 (Stand 2019)…

Das ist „Alien-Sh*t“, was wir hier sehen. Solche Technik dürfte es aktuell gar nicht geben.

2019 nicht.
Dieses Jahr nicht.
Nächstes Jahr nicht.
2022 nicht.
2023 nicht.
2024 leider auch nicht.
Maximal „irgendwann 2025“, sagen Industrie-Insider. Denn auch wenn der Bericht Ende Februar publik wurde, auseinandergenommen wurde der Tesla wohl irgendwann Ende 2019.

Ganz ehrlich: WAS haben die da gebaut!? und WIE!? Ich bin kein reiner Ingenieur, aber ein kleiner CPU-Head. Vor solch einer Leistung habe ich irre Respekt. Und leider auch Angst.

Und sehen wir es realistisch, selbst wenn sie mit Autos als Konzept komplett sich zerlegen würden, sie hätten immer noch diese Chips, also konkrete Hardware, sowie maßgeschneiderte Software dazu im Angebot. Mir würden spontan mindestens ein Dutzend Anwendungsfälle dazu einfallen, „I, Robot“ wäre Kindergeburtstag dagegen.

Flattr this!
Ether spenden // Donate Ether
Bitcoin-Spenden hier akzeptiert ^^

spitzelnde smart speaker

Der hier und seine KollegInnen lauschen pro Tag bis zu 19(!) mal „zufällig“ in Gespräche rein:

Echo Dot (3rd Gen) - Smart speaker with Alexa - Charcoal

Meldungen über zuhörende „smart speaker“ gab es in den letzten Jahren so einige, genauere Untersuchungen oder gar wissenschaftliche Studien dazu eher weniger.

Mittlerweile hat sich das geändert und auch die Untersuchungen laufen sogar noch weiter, siehe: https://moniotrlab.ccis.neu.edu/smart-speakers-study/, Universität Boston NE. [via]

Kam heraus: im Schnitt lauschen „smarte Lautsprecher“ wie Alexa, Google Home & Co. satte 19-mal „zufällig“ pro Tag in die Gespräche rein. o.O

Für die Versuche wurden alle Geräte in eine kleine Box geschlossen und satte 125 Stunden mit Streaming-TV-Audio vollgepumpt. Gemessen wurde dann, wann die Devices aktiv werden, im Techsprech „aufwachen“. Das kam bis zu 19-mal innerhalb eines 24-Stunden-Zyklus vor. Am schlimmsten am Lauschen waren die Geräte von Apple und Microsoft in den Tests. Für den letztgenannten Hersteller und Amazon gab es auch die längste „zufällige“ Aufnahme, satte 43 Sekunden am Stück.

Spannend werden die zukünftigen Untersuchungen der Inhalte in die jeweiligen Hersteller-Clouds: hier will man zum einen wissen, welche das genau sind. Und zum anderen, ob diese vorurteilsbehaftet sind, also Unterschiede aufweisen bezüglich Geschlecht, Ethnie oder Akzent.

Ferner ist bisher nicht bekannt, ob die „Smart Speaker“ aus ihren Fehlern lernen, also über irgendeine Form von künstlicher Intelligenz verfügen. Wobei man sich bei machine learning, was hier Anwendung finden würde, auch bis heute streitet, ob man hier überhaupt KI am Werk sieht. Auch hier werden die Ergebnisse mit Spannung erwartet.

Talking about „smart“, eh!?

Flattr this!
Ether spenden // Donate Ether
Bitcoin-Spenden hier akzeptiert ^^

requiescat in pace, syd mead

Es gibt Todesfälle von Künstlern, die will man nicht (wahr) haben.

Einfach, weil es absolute Ausnahmetalente ihres Fachs waren.

Oder weil sie einen selbst geprägt haben wie kaum weitere.

Für mich war Syd Mead beides.

Ein Genie, der „meine“ Cyberpunk-Welten so visualisieren konnte, wie ich sie am liebsten hatte: realistisch, düster, farbenfroh & kraftvoll.

Schnappschuss von heute der Website sydmead.com
Schnappschuss von heute, 3.2.20, der offiziellen Website sydmead.com.

Syd Mead verstarb bereits am 30. Dezember 2019 im Alter von 86 Jahren. Seine letzten Worte sollen gewesen sein: „Ich bin hier fertig. Sie kommen und holen mich zurück.“

Syd, wherever you went, farewell! You’ll surely be missed! Thanks for your patience in creating those worlds. And also for your courage in publishing those. I don’t think your place will be replaced easily. Requiescat In Pace, dear old cyberpunk friend!

Empfohlene Links:
http://sydmead.com/ – offizielle Website
„The Movie Art of Syd Mead: Visual Futurist“ (Englisch) – Gebundenes Buch, 28,99€, amazon.de
Meldung des Todes von Syd Maed – über dezeen.com, 02.01.20
„In Memory of Syd Mead: The Grandfather of Concept Design“ – via artstation.com
„The Art of Syd Mead“, via iamag.co

Flattr this!
Ether spenden // Donate Ether
Bitcoin-Spenden hier akzeptiert ^^

gpt-2

The Fields of Artificial Intelligence. Infographic @Fisher85M via @antgrasso #AI #NeuralNetworks #ML
(Oben: Forschungsbereiche der künstlichen Intelligenz, CC0 Paula Piccard)

Den Spezifikationen nach hat man bei der KI-Text-Software GPT-2 alles richtig gemacht:

* 1,5 Milliarden Parameter
* Datensatz von 8 Millionen Webseiten als Grundlage
* einfach gestecktes Ziel: Vorhersage des nächsten Worts in einem 40GB-großen Internet-Text

Entstanden ist so „das Modell einer unbeaufsichtigten Sprache, das allgemeinverständliche Textpassagen mit einer guten Performanz und einem rudimentären Leseverständnis, sowie Maschinenübersetzung, Fragestellung und Zusammenfassung“ (Quelle: https://openai.com/blog/better-language-models/) in sich vereint.

Als wissenschaftlicher Mitarbeiter des Planeten Erde ein „Hut ab!“ von mir und Respekt, dass es im Jahr 2019 solch eine Software gibt! Das war eine News im Februar.

Daraus entstanden ist ein regelrechter „Shitstorm“. Denn paranoide Zeitgenossen und Skeptiker witterten darin „ein bereits einsetzbares Programm zur Verbreitung von Fake News, Spam und Desinformation“ (via).

Mittlerweile haben sich die Gemüter wohl beruhigt. Und OpenAI, ein gerade mal vier Jährchen junges Startup aus San Francisco, war die Sache dann zu blöd, die haben die Vollversion der Software letzte Woche kurzerhand öffentlich gemacht.

Von nun an sollten wir alle in der Lage sein, theoretisch, z.B. durch die Eingabe einer beliebigen Überschrift, uns einen entsprechend sinnvollen Text generieren zu lassen. Oder umgekehrt. Und noch viel mehr.

Um zu verstehen, wie das System funktioniert, muss man der englischen Sprache mächtig sein und kann dann mal live hier ausprobieren, worum es geht:

https://talktotransformer.com/.

Einziger Wermutstropfen: die Dropdown ist bereits vorausgefüllt. Trotzdem: nettes Web-Gimmick mit Potenzial!

„The Verge“ hat in einem entsprechenden Artikel natürlich allerlei Nachteile entdeckt: die Verwendung von Namen durchgängig im Text sei nicht kohärent; das System bleibe in einem Nachrichtenartikel nicht beim Thema; solche Sachen. Doch ganz ehrlich: das machen Menschen auch und irgendwo kamen ja auch die Millionen Texte her. Das kann durchaus auch erlernt sein, bleibt aber natürlich Spekulation.

„The Verge“ war auch eines von vielen US-Onlinemedien, denen gar nicht so wirklich wichtig war, was hier genau Revolutionäres passiert. Viele Passagen im Artikel dort widmen sich einer laufenden US-Debatte, ob KI-Forscher Schaden anrichten oder nicht und ob denen das bewusst ist. Ich will da auch nicht weiter darauf eingehen, weil da sind auch wieder so hässliche Themen dabei. Kurzes Fazit: in ~95% der Fälle wissen die OpenAI-Mitarbeiter wohl selbst, ob ein Text ein GPT-2-erstellter ist.

Für mich hingegen ist eigentlich nur wichtig: wann geht denn jetzt Eliza Cassan endlich auf Sendung in meiner Glotze!?

Flattr this!
Ether spenden // Donate Ether
Bitcoin-Spenden hier akzeptiert ^^

requiescat in pace, rutger hauer!

Im Alter von 75 Jahren ist der niederländische Schauspieler, und eine _der_ „Blade Runner“-Kultfiguren, Rutger Hauer, diese Woche verstorben.

[via]

Wer mich persönlich kennt, der weiß um meine starken Prägungen als Cyperpunk durch den Kultfilm aus meinem Geburtsjahr 1982, sowie durch das Videospiel 1997. Vieles von dem, was dieses filmische Spektakel erst zu einem Kultfilm gemacht hat, wäre ohne Rutger Hauer gar nicht möglich gewesen.

Rutger Hauer
Oben: Rutger Hauer 2007 bei einem Workshop in Rotterdam

Ein Beispiel ist der Monolog, den die Filmfigur und Replikant Roy Batty zum Schluss hält. Den hat Hauer nämlich einfach selbst umgeschrieben und in dieser Perfektion der Figur in den Mund gelegt:

„Ich habe Dinge gesehen, die ihr Menschen niemals glauben würdet. Gigantische Schiffe, die brannten, draußen vor der Schulter des Orion. Ich sah C-Beams, glitzernd im Dunkeln nahe dem Tannhäuser Tor. All diese Momente werden verloren sein in der Zeit, so wie Tränen im Regen. Zeit … zu sterben…“

Zeitlose filmische Momente, die einen legendären von einem gewöhnlichen Film unterscheiden.

Mit seinem Tod verliert nicht nur Hollywood sondern auch das europäische Kino einen wahren Charakter, den es so kein zweites Mal mehr geben wird.

Ich verneige mich, natürlich virtuell, wie es sich für einen echten Cyberpunk gehört, und verabschiede mich mit den folgenden Worten:

Requiescat In Pace, Rutger Hauer (1944-2019)!

„Das Licht, das doppelt so hell brennt, brennt eben nur halb so lang, und du hast für kurze Zeit unglaublich hell gebrannt, Roy.“

Flattr this!
Ether spenden // Donate Ether
Bitcoin-Spenden hier akzeptiert ^^

ibm: ki-training auf kosten der flickr-community

Image from page 269 of "A treatise on the diseases of the eye" (1883)
(Oben: Image from page 269 of „A treatise on the diseases of the eye“ (1883), CC0, via)

Von (a)sozialen Medien sind die Nutzer es mittlerweile gewohnt, dass dort eingestellte Bilder & Photos zu Marketingzwecken ausgeschlachtet und missbraucht werden. In die selbe Kerbe schlägt auch, was IBM mit selbigen über die Foto-Community flickr.com machte, um seine KI (künstliche Intelligenz) zu trainieren:

„IBM hat fast eine Million Fotos von Flickr verwendet, um eine Gesichtserkennung zu trainieren. Die betroffenen Nutzer hatten dem jedoch nie explizit zugestimmt.“

[via]

Die Vergangenheit, so scheint es, lässt auch „Big Blue“ nicht in Ruhe. Das ist tatsächlich creepy wie zu nationalsozialistischen Hochzeiten.

Mal schauen, ob die knapp 30 Milliarden Euro teure Übernahme des FOSS-Produzenten „Red Hat Linux“ letztes Jahr hier helfen kann. Die Hoffnung stirbt ja bekanntlich zuletzt. Schlimmer geht ja nimmer. Oder? Oder!??

Flattr this!
Ether spenden // Donate Ether
Bitcoin-Spenden hier akzeptiert ^^

ethereum: constantinople-update-status

Was DER Untergang werden wird für alle korrupten AnwältInnen, ImmobilienmaklerInnen, RichterInnen, etc., verschiebt sich updatetechnisch immer weiter nach hinten:

Ethereum Constantinople Update

Zwar lässt sich das was sich von dem Hackerkollektiv um das russische IT-Genie Vitalik Buterin losgetretene Projekt wurde nicht mehr rückgängig machen, doch alleine hier Updates fahren zu können kostet ungemein Kraft, Zeit & wahrscheinlich auch Geld.

Anders lässt sich wohl die wochenlange Verzögerung hier, leider, nicht erklären.

Der aktuellen Status des durchgeführten Updates lässt sich hier abrufen:

http://forkmon.ethdevops.io/

Was sich schon auf den 27. Februar unnötig verschob, ist nun weiter zurück auf den 28. datiert worden. Nicht gut.

Wie hart es sein muss, Ethereum technologisch Gefallen zu tun, sah die IT-Welt bereits Ende 2016, als das Startup DAO grandios scheiterte (oder sollte man besser sagen: scheiternd gemacht wurde!?).

In jedem Falle.

Das Update wird ja weiter durchgeführt. Also kann es sich „nur“ um Wochen (oder Monate) handeln, bis die Smart-Contract-Plattform final geupdatet wurde.

So isch dem IT!
Das komplizierteste von Menschenhand gemachte Berufsfeld. Period.

P.S.: Constantinople ist kein „Fork“ von Ethereum, wie es permanent von inkompetenten Massenmedien im Internet behauptet wird, sondern lediglich ein Update(!).

Flattr this!
Ether spenden // Donate Ether
Bitcoin-Spenden hier akzeptiert ^^

make games – not war!

Die DFG-VK legt sich gerne mit der Frankfurter Videospielschmiede „Crytek“ an.

Aus aktuellem Anlass, zu lesen im „ZivilCourage“-Heft 6/2018, gebe ich daher gerne das entsprechende, aufbereitete YouTube-Video weiter:

Die Analyse des Gegenschlags der DFG-VK läuft noch, das Video ist bereits aus 2017.

Wie man im oben erwähnten Heft nachlesen konnte war die Aktion sehr effizient, kostete nur 1.500€ und war auch an Kreativität kaum zu überbieten.

Man würde sich wünschen mehr solcher Aktionen zu sehen. Vielleicht nicht unbedingt gegen Videospielentwickler aus deutschen Landen, leider gibt es bei uns nicht sehr viele dieses Kalibers…

Flattr this!
Ether spenden // Donate Ether
Bitcoin-Spenden hier akzeptiert ^^

frohes neues, liebe gehirnglotze!

Image from page 61 of "The Physician and pharmaceutist" (1868)

Willkommen in 2019, einem weiteren Jahr geistiger Gehirnbehinderung! <3

Auf elektronischem Wege, zumindest.

Obwohl Winter ist wird in der deutchen Nachbarschaft gesägt, gehämmert, Bäume gefällt & Flüssigkristallerzeugnisse geleckt und massiert.

Ich weiß ja nicht, was hier los ist, doch der „technisch weit entwickelte Deutsche“ verträgt auch im ersten Jahr nach dem dümmsten Sommer aller Zeiten leider keine Weiterentwicklung -.- Willkommen im „Digitalneuland!“ TOTAL FTW!

Naja, machen wir uns nichts draus.

Es gibt Androiden, kaputte CPUs, vom Himmel fallende Satelliten zum Ausschlachten und Plattenspieler von Vestax zuhauf.

Frohes Neues Jahr 2019 wünscht gizmeo.eu! Auf unsere liebe Gehirnglotze! ^^

Flattr this!
Ether spenden // Donate Ether
Bitcoin-Spenden hier akzeptiert ^^

intel: defective by design III

Computer lassen sich nicht verarschen. Kunden lassen sich verarschen.

Die wohl erfolgreichste CPU-Serie aller Zeiten ist die „(Core) i“-Serie von Intel, basierend auf der sogenannten „Nehalem“-CPU-Mikroarchitektur, die die bekannten „Core“-CPUs irgendwann 2010 ablöste.

Ab „i“ passierte etwas ganz Merkwürdiges: Intel versuchte PCs zu verarschen und verkaufte Prozessoren mit nur zwei Kernen, die aber dem Betriebssystem hintenrum vorgaukelten, diese haben vier. Dieses Konzept nannte man im Marketing-Sprech „Hyperthreading“ und es war ein gigantischer kommerzieller Erfolg.

Defekte Intel-CPU, CC0 Fritzchens Fritz via flickr.com
(Defekte Intel-CPU, CC0 Fritzchens Fritz via Flickr)

IT-Experten ist so ein Blödsinn nie zu verkaufen gewesen: wieso sollte ich eine CPU als Quad-Core ansehen, wenn real nur zwei Cores verbaut sind? Was schlägt die Realität hier, Fakten oder Marketing? Die Antwort kann sich jeder selbst geben.

CPU-Design, sowie Herstellung und Verkauf ist ein gigantisches Geschäft. Allerwelts-Ware, die in Massen hergestellt wird, die man sich nicht mehr vorstellen kann und die Unmengen an Ressourcen verschwendet, menschliche wie natürliche. Tatsächlich hat es diese harte Industrie geschafft Prozessoren zu entwickeln, die heute nicht mehr schon nach zwei, sondern erst nach sieben Jahren (oder noch mehr, wenn man Linux nutzt) im Schnitt ausgetauscht werden müssen, weil sich Software so rasant weiterentwickelt, dass keine Hardware länger mithalten kann. Eigentlich ist das ganz gut so. Doch diese Entwicklung hatte einen verdammt hohen Preis.

Die US-amerikanische Mentalität schlägt sich auch auf CPU-Design nieder. Ohne irrsinnig viele US-amerikanische Dollars wird sich kein Hersteller auf dem weltweiten CPU-Markt durchsetzen können. Das hat zu einem gefährlichen Oligopol im CPU-Bereich geführt, wo mittlerweile lediglich drei Hersteller ihre Kämpfe austragen: Intel, AMD und ARM. Selbst „Big Blue“, also IBM, einst eine CPU-Koryphäe und Vorreiter brachial guter und mächtiger CPU-Konzepte, mischt auf diesem Markt nicht mehr mit. Fragt euch mal wieso.

Dieser Markt ist scheiße wahnsinnig, er bringt die düstersten IT-Blüten hervor, es geht überhaupt nicht mehr um Fortschritt oder möglichst viele Konzepte in dem Bereich. Es geht nur noch darum, wie man dem „dummen Konsumenten“ möglichst im Monatstakt eine neuere Version der CPU, die sie/er bereits hat, andrehen kann. Man geht über Leichen dafür, im In- und Ausland. Man spart stolz an der Sicherheit, das wichtigste Kriterium, für nur noch ein Hauptaugenmerk: Speed. Speed. Und nochmal Speed. Koste es was es wolle.

Genau hier kommt „Hyperthreading“ ins Spiel. Die allergrößte und schäbigste Verarsche, seit es CPUs gibt.

Ich spare mir hier wie „Hyperthreading“ genau funktioniert, der Wikipedia-Eintrag ist oben auch bereits verlinkt, doch dieses Konzept, diese gequirlte Werbescheiße aus dem Hause Intel, hat direkt in die CPU-Apokalypse geführt, die vorerst im Januar in „Meltdown“ und „Spectre“ gipfelte.

„Hyperthreading“ ist das Eingeständnis und die Kapitulation gleichermaßen, sich einen Dreck um den wirklichen Fortschritt von Computer-Prozessoren zu scheren getreu nach dem Motto: „wir können zwar derzeit keine Quadcores oder Octacores bauen, weil alles viel zu teuer und würde viel zu lange dauern, wir bauen lieber einen Wrapper(!) und lügen dem Konsumenten ins Gesicht, merkt keine Sau!“

Und bei Intel im sonnigen Santa Clara regnete es ab diesem Zeitpunkt Dollars vom Himmel.

Von einem technischen Standpunkt aus gesehen ist das unter aller Sau.

Es ist shady, durch und durch. Und dürfte von keinem CPU-Hersteller propagiert werden, der seriös in diesem Zukunftsfeld aktiv ist.

Intel hat aber genau das gemacht. Und sie wollten einfach. Nicht. Stoppen.

Mit „Hyperthreading“ startete ein komplett neues Paradigma, es war mehr als eine Idee, und dieses Paradigma bricht CPU-Käufern seit Januar weltweit Genicke und bereitet Betriebssystemherstellern Kopfzerbrechen: OoOE. Out-of-Order-Execution.

Mit OoOE war es endgültig vorbei mit der wahrheitsgemäßen Abarbeitung von Programm-Code.

Die Spekulation wurde hoffähig und verkaufbar gemacht: die CPU „spekuliert“, welche Anweisung als Nächstes kommt, sie ist sich nicht mehr 100% sicher. Man pfeift auf die Sicherheit und holt ein paar Prozentpunkte mehr Speed. Alles wie gehabt. Es war klar, dass dieser grandiose Marketing-Schachzug, der kein technischer war, nur aus einem Hause so konsequent durchgepeitscht werden konnte.

Und das bei dem wichtigsten Hardware-Bauteil unserer Zeit: dem Gehirn der Maschine.

Bei all der panischen (und dennoch gerechtfertigten) Berichterstattung zu „Meltdown“ und „Spectre“ kommt mir immer eine Frage zu kurz: wie ändern wir das jetzt? Wie macht man diesen kapitalen Fehler rückgängig und vertraut doch wieder dem Von-Neumann-Zyklus, kehrt zurück zur klassischen IOE? Die Antwort ist auch leider hier sehr unbefriedigend: wahrscheinlich gar nicht mehr. Weil es schlicht mehr geht.

Für alle, die dennoch ebenso diese Frage interessiert und umtreibt, dem sei folgende Web-Diskussion empfohlen, die seit vor schon fünf Monaten zumeist sachlich geführt wurde: https://news.ycombinator.com/item?id=16070465. Die Ausdauer und der Informationsgehalt verdienen großes Lob, leider ist das zumindest was ich fand textlich und online im letzten halben Jahr, dann auch schon alles gewesen. Und es wurde auch schon lange gar nicht mehr aktualisiert.

Ich persönlich denke, CPUs sind „fertig designt“ und das schon seit Jahrzehnten(!). Echte Quadcores und Octacores und WeißIchsWieVieleCPUsAufEinemDie wären sowieso gekommen. Was Intel hier gemacht hat ist schon wieder so typisch für Intel. Man kann sie zu Recht hassen und verabscheuen dafür. Das bringen wirklich nur die hin. Das ist Wahnsinn. Und eine Lüge gewesen von Beginn an.

Diesen Gehirnschmalz, diese Expertise im Bereich des Verkaufs hätten sie lieber in die wirkliche Entwicklung, den wirklichen technischen Fortschritt von CPUs gesteckt. Doch um so etwas ging es Intel nie.

Intel ist mal wieder so eines der perfektesten Beispiele für unsere Zeit: „was kümmert mich die Substanz, ich will die optisch geilste Bitch auf dem Fotzenmarkt und werde diese mit Dollars zuscheißen, bis sie erstickt, die drecksgeile Sau!“ Gerne könnt ihr mir hier jetzt bitte seitenweise versuchen zu erklären, was das mit Computern zu tun haben soll.

BNW.

Flattr this!
Ether spenden // Donate Ether
Bitcoin-Spenden hier akzeptiert ^^

das wahre potential der blockchain

Es fühlt sich an wie vor 100 Jahren, doch es war vor „erst“ elf: damals geisterte ein fürchterlicher Marketing-Kackrotz durch den Cyberspace, der sich „Web 2.0“ schimpfte. Unter diesem Schlüsselwort (würde heute „trendig“ #hashtag heißen) sammelten die weltweiten Granden der Inkompetenz & Inkontinenz jene Web-Phänomene, mit denen sie nicht gerechnet hatten in den 90ern des vorherigen Jahrhunderts. Dazu konnten aber schon CSS-Hacks gehören, Webseiten auf Flash(!)-Basis, manchmal auch MySpace/Facebook(!) oder sogar Blogs.

Im Kern war alles Schwachsinn.

Den Begriff gab es eine ganze Weile, sogar „Web 3.0“ kam irgendwann, doch richtig Fahrt aufnehmen konnte das nicht mehr.

Jetzt, mit der Blockchain, passiert aber etwas „Merkwürdiges“, was zwar seit dem NSA-Skandal 2014 vielleicht vorhersehbar war, jedoch nicht 2009 zum Beispiel, als Bitcoin an den Start ging: das Internet steht nämlich technologisch vor der Ablösung.

Die Zeiten sind endgültig vorbei, seit Jahren schon, wo wir munter „frei“ über http Webseiten in die Welt setzen konnten. Ohne https läuft nichts mehr. Es setzt sich, langsam, wie das eben so ist mit tiefgehenden Veränderungsprozessen, durch, dass wir einander bei elektronischen Medien nicht mehr trauen können, nicht mehr trauen sollten. Nicht nur in Bezug auf das Übertragungsprotokoll aus den 90ern.

Hier kommt jetzt die Blockchain-Technologie ins Spiel, deren Credo von Anfang an lautete: „traue Niemandem!“ („Trust. No. One.“)

Man kann diese als Zahlungsmitteltechnologie einsetzen, wie bei Bitcoin geschehen. Man kann sie aber auch wie z.B. bei Ethereum oder NEO als „Betriebssystem“ einsetzen, um Apps (hießen früher mal „Programme“) darauf aufzubauen, die die Menschheit so noch nicht gesehen hat. Und alles, was man darauf kommuniziert, festlegt, abwickelt, etc., wird verschlüsselt und nie mehr änderbar in einer Blockchain abgelegt.

Als junges Beispiel nehme ich hier mal schnell Japan, die bald wirklich verschlüsselt chatten dürfen: https://the-blockchain-journal.com/2018/04/04/line-japans-largest-chat-platform-is-working-with-blockchain/. Ist ja jetzt nur ein Echtleben-Anwendungsbeispiel.

Die Zeiten für Facebook, WhatsApp, Instagram, Twitter; Vergangenheit! End-lich! Danke, Blockchain! <3 Was halt noch fehlt ist die Interkonnektivität zwischen den verschiedenen Blockchain-Systemen. Aus der Historie des Internet könnte, müsste ja faktisch, eine Art, Achtung, Neologismus, Interblockchain, entstehen.

Bis es so weit ist lassen wir das US-Heimatschutzministerium, Apple und Mark Zuckerberg eben Nackt-Selfies von Minderjährigen in ihren unsicheren Clouds speichern und unsere Bank- und Kommunikationsdaten mitsniffen. Schließlich hat sich darauf die Gesellschaft längst geeinigt, sie wird schon nicht daneben liegen.

Flattr this!
Ether spenden // Donate Ether
Bitcoin-Spenden hier akzeptiert ^^

simulationshypothese

Nick Bostrom.
Philosophische Fakultät Oxford.
„Technology Review“, 04/2018.

Mindestens eine der folgenden Hypothesen muss zu 100% wahr sein:
1) „Eine reife Zivilisation muss nur einen winzigen Bruchteil ihrer Computer-Ressourcen einsetzen, um viele Billionen menschliche Gehirne zu simulieren.“
2) „Alle Zivilisationen auf unserem derzeitigen technischen Stand der Entwicklung sterben aus, bevor sie technologisch ausgereift sind.“
3) „Technologisch reife Zivilisationen haben kein Interesse an Ahnensimulationen.“

You decide.

Nur eine letzte Frage stellt sich mir hier: wie lauten die Cheat-Codes!?

Flattr this!
Ether spenden // Donate Ether
Bitcoin-Spenden hier akzeptiert ^^