Umsonstkultur…

By , April 13, 2011 23:53

@inforrrupt stellt eine These auf:

“Die sogenannte ‘Umsonstkultur ‘ wird vor allem von Leuten abgelehnt, die sich die ‘Kosten für Kultur’ locker leisten können, oder? #piraten”

Ein paar Gedanken dazu von mir:

  • Der Begriff “Umsonstkultur” bezieht sich auf Kulturformen, die digitalisiert werden können, und dann als solche via Internet prinzipiell kostenlos verteilt werden könnten.
  • Das schließt dann Musik, Video, Filme, Bücher ein, schließt aber einige Kulturformen aus: Live-Musik Events, Opernbesuche, Lesungen, also all das, wo eine direkte Interaktion mit dem Künstler oder dem Kunstobjekt notwendig ist.
  • Damit umfaßt der Begriff “Umsonstkultur” primär Reproduktionen von Kultur.

Und genau aus diesem Grund kann es sein, daß die These stimmt, aber eben aus einem anderen Grund. Diejenigen, die sich Kultur in “Original”-Formen leisten können, wissen, daß Kultur was kostet. Karl Valentin sagte es mal so: “Kultur ist schön, macht aber viel Arbeit!” Und deswegen könnte es sein, daß diese Menschen sicherstellen wollen, daß Kultur auch weiterhin entstehen kann, und somit nicht alles umsonst sein darf. Früher hielten sich Könige Hofnarren oder Künstler zur Belustigung oder zur Verschönerung ihrer Schlösser. Diese Künstler haben dies “fulltime” gemacht, und nicht in ihrer Freizeit, denn sie mußten von ihrer Kunst leben. Solange es kein BGE o.Ä. gibt, ist also die Bezahlung von Kunst zur Erzeugung derselben notwendig. Es könnte also sein, daß die, die Geld haben, aus diesem Grund (oder, weil sie den elitären Status der von ihnen konsumierten Kunst beibehalten wollen) Umsonstkultur ablehnen.

Matthias

Meine Kandidatur…

By , April 11, 2011 22:58

Woody Allen läßt etwas für mich sehr Wichtiges in einem meiner absoluten Lieblingsfilme, seinem Film “Manhattan”, gegen Ende, sozusagen als Fazit des Films, folgendermaßen sagen: “Du mußt Vertrauen in die Menschen haben!” Da aber das Vertrauen jenseits des Kindesalters stetig abnimmt und ein Kennen Dessen voraussetzt, dem man trauen soll oder will, gebe ich hiermit meine Kandidatur zum Vorsitzenden, stellvertretenden Vorsitzenden oder einem der Beisitzer für den Bundesvorstand der Piratenpartei bekannt, um allen Piraten die Möglichkeit zu geben, mich kennenzulernen, mir Fragen stellen zu können, um auf diese Weise Vertrauen zu mir entwickeln zu können.

Dabei hoffe ich, daß aufgrund meines Bekanntseins im hessischen Landesverband, für den ich auf dem letzten Landesparteitag für das Amt des politischen Geschäftsführers kandidiert habe, und aufgrund meiner Diskussionsteilnahme auf der “Aktiven” Mailingliste als auch via Twitter schon Einiges über mich bekannt ist, ich eben nicht als Katze im Sack gekauft werden muß. Meine Kandidatur zum politischen Geschäftsführer des hessischen Landesverbandes kann im Wiki der Piratenpartei nachgelesen werden. Die Punkte, die ich damals für wichtig hielt, sind mir auch heute noch wichtig:

  • Weg vom Reaktiven, hin zum Proaktiven, also zur Meinungsführerschaft.
  • Vermitteln zwischen anscheinend unvereinbaren Positionen mit dem Ziel eines Ergebnisses.

Genauso wie Daniel habe auch ich noch keine konkrete Strategie für die zukünftige Entwicklung der Piratenpartei für mich entwickelt, auch wenn ich offen zugebe, daß ich keine schnelle Weiterentwicklung zu einer Vollprogrammpartei möchte, sondern mich dem Vollprogramm langsam nähern möchte, um so den an uns interessierten Bürgern und Wählern die Möglichkeit zu geben, sich im Einzelnen und im Detail mit unseren bisherigen Kernthemen auseinanderzusetzen, und dann ggfls. mit uns zusammen die Erweiterung des Themenspektrums vorzunehmen. Außerdem ist es mir wichtig, daß eine solche Strategie gemeinschaftlich vom neuen Bundesvorstand entwickelt und getragen wird, und dazu sind direkt nach der Wahl intensive, wenn möglich auch persönliche Gespräche notwendig.

Da ich ja für verschiedene Posten im Bundesvorstand kandidiere, möchte auch ich kurz darstellen, was ich auf den einzelnen Posten als wichtig erachte.

Vorsitzender

Der Vorsitzende ist sozusagen das Aushängeschild seiner Partei. Als solches vertritt er die Meinung der Partei, steht der Öffentlichkeit als Ansprechpartner zur Verfügung und hat die Aufgabe, dort, wo die Partei nicht wahrgenommen wird, für Wahrnehmung zu sorgen, indem er sich in die entsprechenden Diskussionen einbringt. Das setzt eine gute Erreichbarkeit, sowie den Willen, erreichbar zu sein, voraus. In einer ehrenamtlich auszufüllenden Position, wie derzeit bei der Piratenpartei noch notwendig, bei einer gleichzeitigen beruflichen Vollzeitstelle kann dies natürlich nicht immer zu 100% garantiert werden, daher ist es wichtig, daß der Vorstand in Gänze, und nicht nur mit seinen Pressesprechern, hier mithilft, um z.B. auf Veranstaltungen hinzuweisen, oder an Einladungen zu erinnern.

Ebenso ist es für den Vorsitzenden unumgänglich, zu wissen, was gerade in der Parteibasis diskutiert wird, um darauf reagieren zu können, bzw. bei Interviewanfragen vorbereitet zu sein. Das ist mit ein Grund, warum ich auch heute schon z.B. aktiv die “Aktive” Mailingliste verfolge.

Eine meiner großen Stärken ist es, in Diskussionen vermittelnd eingreifen zu können. Dies habe ich schon oft im beruflichen Umfeld einsetzen müssen, um aus verfahren aussehenden Situationen im Projektgeschäft wieder zu einer erfolgreichen Weiterarbeit kommen zu können. Dies, so denke ich, wird dem Bundesvorstand zum effizienten Arbeiten nützlich sein.

Stellvertretender Vorsitzender

Dieser Posten wird durch seinen Titel schon ausreichend definiert. Er ist der “Ersatzspieler”, sollte der Vorsitzende ausfallen. Um diese Position dann ggfls. auch schnell und problemlos übernehmen zu können, ist eine ständige vertrauensvolle und umfassende Zusammenarbeit mit dem Vorsitzenden unerläßlich. Aus diesem Grund kann es auch sein, daß ich auf dem Bundesparteitag meine Kandidatur für diese Stelle kurzfristig zurückziehe, sollte eine Person für den Posten des Vorsitzenden gewählt werden, von der ich glaube, daß sie nicht meinen oben beschriebenen Vorstellungen des Vorsitzenden entspricht. Unabhängig davon hat dann aber der stellvertretende Vorsitzende weitaus mehr Zeit als der Vorsitzende selbst. Diese Zeit würde ich dann auf dem Posten des stellvertretenden Vorsitzenden nutzen, um mich mit den Aufgaben des Vorstandes zu befassen, die vom Vorsitzenden selbst zeitlich nicht geschafft werden können. Dies sind z.B. Kontakte zu den Landesverbänden, etc., um nur einige Dinge zu nennen.

Beisitzer

Bei den Beisitzern gibt es verschiedene mögliche Aufgaben. Mein Beitrag hier liegt sicherlich nicht in der Rolle des Pressesprechers, sondern in der Funktion, für die ich auch im hessischen Landesverband kandidiert habe, nämlich der Aufgabe des politischen Geschäftsführers. Das umfaßt die Abstimmung mit den Landesverbänden, wie unter der Rolle des stellvertretenden Vorsitzenden erwähnt, aber auch die Aufgabe, vermittelnd bei der Richtungsfindung der Partei mitzuwirken und die Rahmenbedingungen dafür zu schaffen, daß programmatische, politische Arbeit in der Partei problemlos möglich ist.

Bevor ich zum Schluß komme, möchte ich hier noch die Links plazieren, unter denen ihr mir Fragen stellen könnt: Dafür gibt es im Piratenwiki eine Stelle, und auch bei Formspring ist dies möglich.

Schliessen möchte ich diesen Beitrag zu meiner Kandidatur mit zwei Mottos von von mir sehr geschätzten Filmregisseuren, die hoffentlich klar machen, daß mir das Tun wichtiger ist als das Diskutieren, und das ich dabei auch bereit bin, Risiken einzugehen, die ich im Vorfeld nicht immer 100%-ig einschätzen kann:

  • Man macht immer Fehler im Leben, aber man sollte lieber aktive als passive Fehler machen. (Federico Fellini)
  • Vertraue Deinem Instinkt, dann machst Du wenigstens Deine eigenen Fehler. (Billy Wilder)

In diesem Sinne wünsche ich uns einen guten und erfolgreichen Parteitag in Heidenheim.

Matthias

Was mir an der Spackeria nicht gefällt…

By , April 10, 2011 18:55

Vorweg: Ich habe auch keine Antworten, aber nach meinen Tweets zur Spackeria und den darauf erfolgenden Reaktionen, insbesondere von http://twitter.com/laprintemps, http://twitter.com/tante und http://twitter.com/korbinian sehe ich mich aufgefordert, hier mein Unbehagen mit der Spackeria darzulegen. http://twitter.com/caevye hat mich außerdem darum gebeten, also erfülle ich ihr den Wunsch!

Vorweg 2: Jan Dörrenhaus hat es im Prinzip schon sehr schön beschrieben, und auch http://twitter.com/senficon sagte es sehr schön.

Daher, und weil ich es auch auf Twitter angekündigt habe, hier nun meine Meinung zur Sache:

Die Spackeria scheint den Anspruch zu erheben, sich zu einer Problematik zu äußern und sie ins aktuelle Bewußtsein zu rücken, von der sie glaubt, daß sie nicht aktueller sein könnte. Das ist mein erster Kritikpunkt. Denn: Zumindest seit Scott McNealy‘s Äußerung von 1999: “You have zero privacy anyway, get over it!” ist das Thema ein Thema! Und, wer noch weiter zurückgehen möchte, findet, zwar nicht unbedingt auf das deutsche Datenschutzgesetz gemünzte Äußerungen, so aber doch Überlegungen zu den Auswirkungen des Computers, des Internets oder des “globalen Dorfes” schon bei Joseph Weizenbaum seit den späten 1960’ern, bei Marvin Minsky oder dem Begründer des Begriff des “globalen Dorfes”, Marschall McLuhan.

Konkret lautet also mein Kritikpunkt 1:

Wer eine Welle machen will, sollte sich zumindest auf die berufen oder beziehen, die schon Jahrzehnte vorher sich zu dem Thema geäußert haben.

Kommen wir zum zweiten Punkt: Wenn man die Webseite der Spackeria öffnet, so liest man dort:

Die datenschutzkritische Spackeria
Vereinigung der post-privacy Spackessen und Spackos.

Hier werden sofort zwei Dinge zusammengewürfelt, die im ersten Schritt erstmal per se nichts miteinander zu tun haben: Datenschutz und post-privacy. Und das setzte sich anfänglich in der Argumentation der Spackeria fort. Im Spiegel-Online Interview mit Julia Schramm sagt sie sehr exponiert und sehr früh: “Privatsphäre ist sowas von Eighties.” meint eigentlich aber, daß aufgrund der technischen Entwicklung, und der damit verbundenen “Übergabe” von Daten und damit auch von “Verantwortung” an technische Systeme (Weizenbaum, ick hör Dir trapsen!) heute keine Sicherheit der Daten mehr gewährleistet werden kann (siehe auch Scott McNealy). Hätte sie das etwas anders formuliert, nämlich in Bezug auf die technische Unmöglichkeit des Schutzes von Daten, und nicht als Absage an die Privatspäre, so wäre der ihr entgegengeschlagene Shitstorm sicherlich kleiner und einfacher konterbar gewesen. An anderer Stelle betont Julia aber, daß sie Wert auf Privatsphäre legt, und zwar in der Art, daß sie sich dann einfach der Online-Welt entzieht (Diskussion ab ca. 30:00, genauer Minute 35:39 des unten erwähnten Interviews). Andererseits wird von Julia der Schutz der Privatsphäre negiert (im SpOn Interview), und zwar mit den Worten: “Es mag dann zwar immer noch Platz für Privatspähre geben, im Sinne der Trennung Hannah Arendts von öffentlichem und privatem Raum. Aber sie wird nicht mehr als Schutz notwendig.” (Typos courtesy of SpOn!). Gut, sie sagt, daß die Privatsphäre nicht mehr als Schutz vor dem Öffentlichen benötigt wird (sozusagen als Flucht aus dem Öffentlichen), das wiederum hat dann aber logisch zur Folge, daß, wenn das Private nicht mehr als Schutz vor dem Öffentlichen dient, daß dann auch das Private öffentlich wird, weil es ja nicht mehr als Schutz dient, damit dann auch automatisch nicht mehr schutzbedürftig ist, und somit jeglichem externen Zugriff geöffnet, also öffentlich wird.

Hier erscheint mir also eine Unklarheit und sogar Vermischung der Begriffe vorzuliegen, was die Diskussion erschwert.

Konkret lautet also mein Kritikpunkt 2:

Unsauberer Umgang mit den Begriffen Datenschutz, Privatsphäre und post-privacy.

Die eigentliche Intention der Spackeria erscheint mir zu sein, den Begriff des Datenschutzes und des damit verbundenen Datenschutzgesetzes neu zu definieren. Hier stimme ich vollkommen zu. Die aktuelle Definition des Gesetzes ist überholungsbedürftig! Mit Formulierungen wie: “Aber das heißt noch lange nicht, dass Datenschutzgesetzte aus der analogen Zeit das Internet einschränken müssen.” und SPIEGEL ONLINE: Der Staat soll sich aus der Regulierung des Internets weitgehend raushalten? Schramm: Ja!” fordert sie ja indirekt die pauschale Abschaffung des Datenschutzgesetzes. Das wiederum kann nicht die Grundlage der Diskussion sein, denn es wird so garantiert nicht zu einem breiten gesellschaftlichen Konsens führen können. Denn viele aus der Spackeria oder ihrer Gefolgschaft scheinen Julia so interpretiert zu haben, daß das Datenschutzgesetz, weil technisch nicht mehr umsetzbar, abgeschafft gehört.

Konkret lautet also mein Kritikpunkt 3:

Nicht sofort die Abschaffung von technisch nicht mehr haltbaren Gesetzen fordern, sondern die Reform der Gesetze fordern.

Nun kam in den letzten Tagen noch ein gemeinsames Interview von Konstantin von Notz (u.A. Sprecher für Netzpolitik der Bundestagsfraktion der Grünen), sowie Julia Schramm, hier für die Spackeria, durchgeführt von Benjamin Stöcker auf politology.de hinzu. In meinen Tweets habe ich laprintemps vorgeworfen, sich aus schwierigen Fragen in für sie typischer Art und Weise rauszuwinden. Ein solches Beispiel habe ich oben schon angeführt (Minuten 30-36), ein für mich weiteres “typisches” Beispiel findet sich im Abschnitt Minute 9-14: Konstantin erwähnt das Problem, daß mit der VDS der Staat Privatunternehmen auferlegen will, Daten für den Staat zu sammeln, aber andererseits die Spackeria das Datenschutzgesetz in seiner jetzigen Form ablehnt, weil damit die Freiheit im Internet gefährdet sei, und das Datenschutzgesetz zur Regulierung dessen, was im Internet passieren kann und darf negativ ausgenutzt werden kann oder soll (Data must flow). Julia stimmt zu, und beantwortet das Problem mit der Forderung nach mehr Möglichkeiten zum anonymen Surfen, äußert sich damit also nicht zur Problematik (das Dentschutzgesetz könnte ein direkter Gegenpol zur VDS sein, und damit sogar als Grundpfeiler einer Initiative gegen die VDS genutzt werden) direkt, sondern sucht einen Weg drumrum. OK, hier mag ich spitzfindig erscheinen, aber Konstantin sagt es anfänglich sehr schön: Das Datenschutzgesetz ist als Gesetz zum Schutz der Verbraucher gedacht, und nicht als staatliches Instrumentarium zur Verweigerung des Zugriffs von Bürgern auf ihre eigenen Daten (was auch immer die sein mögen).

Zu guter Letzt, anschliessend an den direkt hier drüber stehenden Gedanken:

Mir erscheint es so, daß viele derjenigen, die für die Spackeria bloggen, twittern oder sprechen, zwei Dinge verwechseln bzw. gleichsetzen: Datenschützer und das Datenschutzgesetz. Ihr Feindbild sind primär die aus ihrer Sicht “sogenannten Datenschützer”, in der Form der Vertreter und Verfechter des Jugendmedienstaatsvertrags, der Netzsperren oder der Vorratsdatenspeicherung. Ein schönes Beispiel dafür findet sich in der folgenden Formulierung in einem Beitrag von tante auf dem Spackeria Blog: “In der Hinsicht ist die Spackeria für mich zu tiefst aufklärerisch im kant’schen Sinne: ‘Aufklärung ist der Ausgang des Menschen aus seiner selbstverschuldeten Unmündigkeit’ Unsere Unmündigkeit bleibt so lange bestehen, wie wir Datenschutz nicht mehr kritisch reflektieren und die Probleme mit der Ideologie benennen, Datenschutz zum Dogma erhöhen und die Kritiker der Ideologie diffamieren.” Mit diesem Beitrag packt tante alle, die nicht in der Spackeria sind oder ihren Zielen folgen, zu Dogmatikern des Datenschutes in die Schublade, die er sich selbst von denjenigen gemacht hat, die nicht die Ziele der Spackeria unterstützen. Ähnliches kommt ein paar Beiträge weiter unten dann auch von fasel. Schade dabei ist, daß auf diese Weise eben die Diskussion mit der Spackeria erschwert wird, weil sie eben alle diejenigen ausschließt, die auch nur in Ansätzen eine etwas andere Position vertreten. Dabei haben die von der Spackeria als sog. Datenschützer bezeichneten Leute aber in der Regel nichts mit dem Datenschutzgesetz zu tun, und auch nur selten etwas mit den echten Datenschützern. Wenn diese Pauschalisierung des Feindbildes abgelegt werden würde, wäre eine Diskussion mit der Spackeria sehr viel einfacher, und könnte sicherlich dem gemeinsamen Ziel der Reform und damit der Anpassung des Datenschutzgesetzes auf aktuelle Gegebenheiten und Notwendigkeiten dienen.

Matthias

One more time: Lecture again

By , April 30, 2010 15:54

Last summer, Ulrich Gräf and myself did provide a lecture at Technical University Darmstadt, on “Innovative Operating System Elements”. The corresponding blog-entry from last year can be found here: “It’s official: Ulrich and myself will be giving lecture at TU Darmstadt on Operating Systems”. So, again this summer we’ll do it again: “Innovative Operating System Elements”.

Again, also, the slides will show up under: “Innovative Operating System Elements SS 2010”.

Our intention for the content currently is:

  • 16.04.: OS – What’s that? (UG)
  • 23.04.: IO (UG)
  • 30.04.: Storage (UG)
  • 07.05.: CPU and scheduling (UG)
  • 14.05.: Posix (UG)
  • 21.05.: High Availability (UG)
  • 28.05.: Cluster Methods (DU)
  • 04.06.: Networkfeatures in OSes (MP)
  • 11.06.: Security (UG)
  • 18.06.: Management / SAN / Filesystems (MP)
  • 25.06.: Filesystems (UG)
  • 02.07.: Virtualisation / VM (MP)
  • 09.07.: Virtualisation / OS (UG)
  • 16.07.: OS Generation 5 (UG)

You’ll notice a “DU” as lecturer in there. At May 28th, both Ulrich and myself will be at the “GUUG” in Köln, so we both are unable to give the lecture. Therefore we found Detlef Ulherr, one of Sun’s Solaris Cluster Engineer’s, who will be providing that lecture.

And, again, as last year, we intend to have an excursion to the “Heinz-Nixdorf MuseumsForum” in Paderborn, the largest Computer Museum of the world. Let Ulrich know, if you’re interested in joining us on that excursion.

We’re looking forward to an again interesting, funny and hopefully useful lecture. Enjoy!

Matthias

Answer to Brian Madden’s 2015 Desktop article

By , April 29, 2010 15:44

In “What the Windows desktop will look like in 2015: Brian’s vision of the future” Brian describes his vision of the Desktop in 2015.

A couple of small comments:

  1. Three months ago I posted something similar: See here: “VDI and its future”
  2. With the Backend DC Apps becoming “virtualized” (no more need for an OS, running natively on a Hypervisor, see here: “Oracle WebLogic Suite Virtualization Option”), why not simply assume, that every Desktop app also will be running natively on the hypervisor?
  3. As these Apps then no longer require an OS, there might not be a need for Windows Apps any longer.
  4. The “old OS discussion” will then become a “hypervisor discussion”.
  5. If we assume also, that APIs for deploying apps “into the cloud” will become homogeneous and compatible with “deploying to run on a hypervisor” (we could call a cloud a “hypervisor of OS functions”), we might then enter paradise, as we no longer need to care, which app runs where or how to access it.

So, from all these thoughts, OSes will get irrelevant. That’s why MS et.al. are starting to invest into the cloud game, as they need to transform their business model from “paying for owning apps” to “paying for getting a specific service”.

Even your “user workspace” idea might shift, as it might become a part of: “IT Futurology and the Terabyte iPod”.

Yes, your article might be “real” in that it keeps in mind, that things change slowly, still, other posts of yours do miss opportunities, as you still seem to be to windows-bound… ;-)

Still, it’s a good reading! Thanks for that!

Matthias

Updates again: Small Home NAS Server…

By , March 31, 2010 16:54

A while ago I wrote about the ongoing changes to my small NAS-Home-Server and promised pictures and updates.

So, now, that the Chenbro case did arrive, I set up the whole system. The first task was to disassemble the PSU from the Chenbro case, as I intend to use a real external 120W PSU. That saves heat-generators inside the case, and allows for less rotations of the fans… The case fans aren’t as silent, as the CPU fan, so, yes, sadly, they’re audible…

Second task was to disassemble the electric case security switch, as the Jetway board doesn’t make use of such info.

You can see the missing parts in image one below… ;-)

After that, I had to build some mounting kits for the 1.8″ Toshiba disks, as the 2.5″ adapter had its holes upside-down, whereas the case had them sideways. So I bought some 7.5mm x 7.5mm (1mm thick) L-shaped aluminum part, cut off 2 x 10cm pieces, and drilled holes into it and created screw sockets (2.5mm). As the adapter has some overhead resistors, I needed to add some distance between the alu and the adapter, which I did by using some plastic. You can see that in the following images.

Then I found, that the board does have two fan sockets, but only one was temperature controlled in the BIOS. So, you see, I needed a Y-cable to connect both fans to the controlled outlet. More on that later…

Next disappointment was: The external 80W PSU did die during power-on, as the 5 disks did draw to much power. So, during power-on I need to currently pull out one of the 3.5″ disks, and re-plug it in a bit later. A new 120W PSU is on its way to me right now…

Next disappoint was: The Jetway board has not been able to see the 2 disks attached to the NM10 chipset as SATA (AHCI) disks, they show up as IDE. OK, no problem for ZFS, it works, but it’s a bit slower.

So, with these three disappointments I wrote an email to Jetway, asking for a remedy for these failures. To my great pleasure they did respond immediately, and less than a week later I now have a pre-production version of the new BIOS, that allows to set the onboard SATA port to either IDE or AHCI, and also allows to set parameters for the second FAN socket. So, I switched back to two distinct cables for the two fans, so that they can be set individually. The only thing they did not implement was the “delayed power-on” for the individual disks. But I guess, that will be solved, once I have a more powerful external PSU.

So, power-consumption now is at 43W, when idle, ~55W, when all disks are active. Nice thing is: Hot-swap of disks is do-able, so, once one dies, it’s easy to replace it with a bigger one.

Now, I’m only waiting for the OpenSolaris 2010.03 version to appear, so that I can do a clean OS re-install.

So, with that,here are the images, enjoy!

Matthias








Cloud, DevOps, ITIL, Provisioning – A reflection on James Urquhart’s and Dan Wood’s articles

By , March 30, 2010 16:57

James Urquhart (@jamesurquhart) posted a series of articles on operational management in the cloud on his blog: The Wisdom of Clouds.

Following are my comments on his series and the discussions that followed on Twitter

But first, the links to James’ articles, entitled “Understanding cloud and ‘devops'”:

It also refers to his series around Payload description and Application packaging as well as Dan Woods’ article on Virtualization’s Limits

Dan states:

“But automated provisioning and management of cloud computing resources is just one of three elements needed for intelligent workload management. The other two are the ability to set up and configure an application that is going to run on a cloud or virtualized server, and then making sure the data ends up where it is needed. Here’s where the hard problems arise.”

Dan is right, but also wrong in his arguments.

Let’s look back a bit in IT history: 5-10 years ago, the notion of “provisioning” did try to shape the way, DCs should have been managed. Terms like SODC (service oriented datacenter) and OM (operational maturity) were hip. Still they neglected a couple of trivial things, like: Inconsistent upgrade paths of software stacks, and the inherent “need” of app-users to tweak the apps according to their perceived needs.

Let’s look at the latter first: Why did that culture of “tweaking” or “tuning” apps happen? Because in many cases the HW had not been fast enough to fulfill the needs of the end-users. That’s, why tuning was very popular, and happened close to always. But there’s a side-effect to that:

R. Needleman, Editor in Chief of Byte Magazine decades ago, once wrote to this topic in an editorial:

“And no matter what hardware you have, it’s really hard to learn to play piano.”

This might be proof to Dan’s statement, but it also is proof to a dilemma, that many hardware selling and creating companies today have: The need of the software w.r.t. CPU-cycles didn’t keep up with Moore’s Law. That’s why we see more and more underutilized systems, and we experience a shift towards appliances. Because this seems to be the only way for a hardware creator and vendor to survive: Create the margin from something different than the hardware. Add stuff to the stack, so that a competitive advantage occurs across the stack. That’s for example, why Oracle bought Sun. From this also comes a second thing: Standardization. In order to be able to exchange the underlying hardware for cheaper and more powerful hardware, app-deployers and -users now tend to no longer tweak and tune as much as they did decades ago. Today, we see way more “standardized” deployments of software stacks, than we saw decades ago. This is also triggered with the broad acceptance of virtualization. V12N does at least provide a standardized layer for the Operating System, so that here no longer any tweaking or tuning is needed. That also in turn led to the notion of also applying such methods to the apps on top of the OS and we see so-called “images” being the element of access in virtualized environments.

Back to Dan’s argument, and his problem statement:

I’ve been in provisioning for more than a decade now, and I’ve seen 100% automated setups, from Deutsche Bank’s working RCM (Reliable Configuration Management) over to its next version, RCMNG (Next Generation), to the never deployed APE (A Provisioning Environment) at Daimler Chrysler over to the things, that are in production at BG-Phoenics or Deutsche Bahn. These things do work, and, yes, they do a 100% automated bare-metal install, up to app deployment and app-configuration management even up to the content provisioning.

So, back to James’ points, which also addresses the former pain-point mentioned above!

The main problem of all these environments is the fact, that the “meta data”, that James refers to, needs to be adopted and kept up-to-date over the lifetime of an environment to the ever changing pieces it is build of. Never assume, that the install for version X of app C can be used also for version Y of app C. Here, a big maintenance effort has to be done, and with the diversity of the apps themselves, even across versions, this is something, that can’t be neglected. And in an environment, where time-to-market and fine-tuned setup is key, spending time on shaping the meta-handling simply didn’t occur or has not been worthwhile.

So, with the advent of V12N and the term “Cloud Computing” we now get into an era, were due to the more standardized deployments of OSes as well as Apps, and with the fact, that most of the “configuration” of the apps can already now be done during installation, that amount of work needed to manage the “meta data” changes and gets smaller. That in turn allows to again think about provisioning on a broader scale.

James describes in his “Payload description” article and its predecessor exactly the things, that had been the factors for companies like TerraSpring or CenterRun to create their provisioning tools. James calls the envelop a pCard. CenterRun did call this, over a decade ago, a resource. In CenterRun, resources can inherit capabilities (parameters, deployment routines, et.al., it’s a really object oriented approach!) from other resources and can also ask their targets of installation (called hosts, which can by physical or virtual, a virtual host in turn can be an “entity” like a web-server-farm, where you can deploy content or also “apps” into) for their specific capabilities, like payload spare-room, or OS-version, or CPU type, or you-name-it.

So, what’s been needed in order to successfully use tools like CenterRun (and, yes, that’s not the only tool of that time! There’s been way more!) was a modeling of the overall stack, breaking it down into generic, but specific enough resources and hosts, so that deployment can be done over a longer period of time. Pitfalls mostly were, that thinking of “hosts” did limit people to believe, that a host is a “physical machine”.

Now, that we see, that James’ ideas are nothing new, and had already been proven to work close to a decade ago, why did those not have been a great success over the time or are even seen by James as part of the solution to his problem statement? Or even Dan’s ideas of the need for “Systems Management” at a higher level?

I do see mainly two reasons for that, both already being mentioned above:

  • It’s tedious to manage all of the needed meta-data of the whole stack.
  • The stack did change to often to make it worthwhile to use “provisioning” or “automation” of the stack. I once stated: “If you want to automate chaos, you’ll get chaos automatically!”

So, why do people like Dan or James believe, and why do I agree, that now, with the notion of “Cloud Computing”, it’s time again to think about “provisioning”?

First, as mentioned above, the complexity of the stack is reducing itself due to the fact, that V12N is helping with standardization: Less options, easier to manage!

Second, many later-on config and tuning options are now options to the installer, or will simply never be performed. There’s a couple of reasons for that: Again, CPU-cycles are now more easily available, so that fine-grained tuning no longer is a necessity. And, many config-options are now install-time options, making also the handling easier, because the steps to achieve a given goal are reduced. And then many customers learned the hard way, that tweaking a software to its limits killed a possible upgrade-path to newer versions, as some features or “tweaks” had simply disappeared in newer versions. So, CUs tend now to stick to more off-the-shelf installs, hoping to be able to quicker upgrade to newer versions. This in turn also reduces the complexity of the pCard (James’ speaking) or the meta-data-modeling, making it possible to perform such tasks.

Third, we see a “reduction” in options for tasks or problems. There’s a concentration going on in the IT-industry, which in some publications is called “industrialization of IT” or “commoditization”. With that comes the reduction of for example software-solutions for a given task, and also a concentration in the hands of single companies. That leads to more integrated software-stacks, which in turn also simplifies the meta-data, and makes it feasable to start again looking at provisioning of the whole stack. Like in the car industry, you’re no longer looking for the individual parts to build a car from, you’re buying it “off-the-shelf”, or, in the car-manufacturing part of the story, you’re no longer looking for people to build the car, but since the invention of Ford (construction-belt), you’re looking at automating the building of the car.

So, what now is James saying in the so-far 2-part DevOps series?

He’s going back to what I stated above as “Operational Maturity” (ITIL speak). No longer management of individual pieces and being forced to react to changes in those resources, but “designing” stuff, so that they can benefit from whatever underlying layers are available.

In my world, there are also constraints that need to be acknowledged: In order do design stuff, you need to have at least two things: Freedom (and capabilities!) to “implement” your dreams and simple enough elements to build the implementation of those “dreams”. If you would be forced to create a “one-off” for the implementation of your dream (or design), then some basic requirements might be difficult to achieve, like “elasticity” or “rapid deployment”.

So, also here the basic rules of “managing constraints” is still in place. Yes, James is right in that the focus shifts from OSes and servers to applications. That’s why the term “appliance” was created a while ago, and why all vendors today start shifting their focus to easily provide “services” in form of an appliance. An example today from the company I work for is the Exadata 2 DataBase machine. Order it, get it, and use it latest two days after delivery. No more tweaking, configuring, and exception handling if the pieces don’t work as expected. You get, what you want and what you need.

This appliance approach, when brought to the “Cloud” needs rules, so that these appliances can happily live together in the cloud. That’s what James describes in his second article of the series.

Still, my mantra from years ago, applies: “If you automate chaos, you’ll get chaos automatically!”

But: Today it gets easier to manage the chaos, as there are less switches and glitches to manage, due to more standardized elements of the stack. That also in turn makes it easier for the “provisioning tool provider”, as the tools themselves no longer need to be over-sophisticated, but can be stripped down to simpler approaches. That’s, why for example, in Oracle Enterprise Manager Grid Control the provisioning part gets more important over time, and will be an important part of the systems management portfolio. Without the elasticity management capabilities and the deployment capabilities, you no longer can manage, and therefore sell, software.

But, let’s not forget: Here, we’re talking about the “back-end” side of things! The “front-end” side, with the “desktop-computing” part, I did cover in my former post: VDI and its future

Finally, I’ll leave you with Tim O’Reilly, who did publish his thoughts on the Internet Operating System, which Sam Johnston calls the cloud… ;-)

Enjoy!

Matthias

Another one joins the forces…

By , March 29, 2010 17:22

…of OpenSolaris based home-NAS solutions…

Read: Joining the ZFS Revolution

And again another one, read: ZFS Home NAS

So, we see: ZFS is the trigger for many to select OpenSolaris as the basis for home-build NAS solutions. There must be a reason for that, don’t you think?

Matthias

Small Home Server, Update…

By , March 15, 2010 11:00

In http://blogs.pfuetzner.de/matthias/?p=495 I wrote, that I bought a new motherboard. It did arrive on Friday, and as I still don’t have a new case (I ordered the Chenbro ES34069 today, sadly, in Europe, it’s only available with PSU, waste of money, but I’m willing to spend it for the size and features of the case), I simply put it into the old case, and left the case open. I also did not yet connect the external USB disks via SATA, will be done, when the new case arrives.

So, did my feelings mislead me? No! I simply unplugged the boot disk from the old board, removed an additional IDE converter (the new board has the smaller, but power-including IDE cable setup, so no need for additional power cables to the boot disk!), plugged the disk into the board, connected the power-switch and external PSU to the board, pressed the power button, quickly checked the BIOS setting (no need to change anything, default values were good, but I will later turn on the “shutdown on overheating” option), pressed “e” when grub came up, and added a “-r” to the boot-line, and pressed “b”. First step, I didn’t have the USB disks connected, but I could have done so, things went straight forward, and the system came up. On the second reboot I added the USB disks, and again, all went well. The ONLY two small changes, I needed to do, were:

mv /etc/hostname.rge0 /etc/hostname.rge1
vi /etc/power.conf

Reason for that?

The new board has a slightly different RealTek network adapter, so it could not re-use the old settings, and did create a new device, namely rge1. And, for sure, the hardware paths to the boot disk and the USB disks are slightly different, so I needed to adopt the values in the /etc/power.conf file to the new values.

That’s been it! And, although the board has a CPU fan, that fan is so quiet, I don’t really hear it, although the current case is open. I can highly recommend that board!

Stay tuned for the next update somewhen this week, when the new case will arrive!

Matthias

Naked, but secure? How much security can a democracy endure?

By , March 10, 2010 14:13

Yesterday, I did (as usual) watch the actual edition of Quarks & Co. This edition had the title “Naked, but secure? How much security can a democracy endure?”

As also usual with this format, Ranga Yogeshwar, the moderator of this format, did not make any ostentatious claims, but listed simple facts. He had two persons in the studio with him, one that once was perceived as a terrorist and had been silently followed by Germany’s security offices, and one social psychologist, explaining the mechanisms of perceived “Angst” and the irrational reactions to that by the state and its people. One example: After 9/11 US citizens no longer wanted to fly by plane, because they feared to become a victim of another terror assault. So they travelled by car. The rate of incidents when using a car is way higher than when using a plane, so that irrational deviation led to some 1500 more dead persons in the year after 9/11. Another example: The airport at Frankfurt alone is paying 2 Million Euro PER WEEK for destroying the waterbottles et.al. that are raided at the security checks. The psychologist simply said: “Use that money to develop Afganistan, and Al-Quaida is history!”

These are just two small examples, of misguided reactions to terror-events, that had been induced by the government or irrational reactions of its citizens.

Think about it! And watch the replay on Saturday at noon on WDR3! Or download the feature as a podcast from: http://medien.wdr.de/download/1268164800/quarks/wdr_fernsehen_quarks_und_co_20100309.mp4. Sadly, it’s in German only… That’s the only caveat I have…

Thanks, Ranga, for a great edition (as usual!)!

Matthias

Panorama Theme by Themocracy