Donnerstag, 30. April 2009

Microsoft veröffentlicht erste Vorab-Version von Windows 7 ...


Microsoft hat die vorläufige Version des Vista-Nachfolgers „Windows 7“ zum Herunterladen freigegeben, vorerst aber nur für professionelle Nutzer und Entwickler. Ab Dienstag, den 5. Mai, gibt es das neue Betriebssystem dann auch für Sie zum Ausprobieren – ...

Betriebssystem Windows 7

Windows 7 soll den ungeliebten Vorgänger Windows Vista ablösen.

Bei der Testversion handelt es sich um den sogenannten „Release Candidate“ (RC1). Die Fassung unterscheidet sich von der späteren Kaufversion nicht mehr, was den Umfang und die Funktionen angeht. Der RC1 wird lediglich zum Ausmerzen von letzten Softwarefehlern verteilt.

In der am 5. Mai verfügbaren Version bietet Windows 7 unter anderem eine Funktion, mit der man von jedem beliebigen Rechner aus auf die im heimischen PC gespeicherten Medien zugreifen kann. Auch die Suchfunktionen und die Befehlsleiste sollen noch einmal verbessert worden sein. In der aktuellen Version unterstützt Windows 7 nun auch Funktionen für Rechner, die sich über einen berührungsempfindlichen Bildschirm steuern lassen. (rs)


Posted via web from Superglide's Personal Blog ...

UPDATE: Aktuelle Informationen zur Schweinegrippe ...


28.04.2009
 

Nach den USA, Kanada und Spanien wurden nun auch Krankheitsfälle in Großbritannien, Neuseeland, Südkorea und Israel bestätigt. In anderen Ländern steigt die Zahl der Verdachtsfälle. Nach Angaben der Weltgesundheitsorganisation (WHO) hat sich das Risiko einer weltweiten Ausbreitung (Pandemie) des Erregers verschärft. Daher wurde die Warnstufe von 4 auf 5 erhöht. Die zuständigen Fachstellen verfolgen die aktuelle Entwicklung. Mitarbeiter werden weiterhin durch Meldungen in den Intranets auf dem Laufenden gehalten.


Auswirkungen auf Unternehmen:
Einige Unternehmen hat haben Heute bis auf weiteres ein Reiseverbot aus und nach Mexiko erlassen. Fachstellen prüfen momentan mögliche Auswirkungen der Schweinegrippe auf die entspr. Geschäftstätigkeit. Das gilt vor allem für die Produktion in den USA, welche eng mit Zulieferern aus Mexiko zusammenarbeiten. Mitarbeiter werden gebeten, sich bei Fragen zum Thema Schweinegrippe an ihre zuständigen Personalstellen sowie den lokalen Gesundheitsdienst oder den medizinischen Dienstleister zu wenden.

Informationen zur Schweinegrippe:
Nach Angaben der WHO wird das Virus H1N1 von Mensch zu Mensch durch Tröpfcheninfektion, z.B. Husten und Niesen, oder Schmiereninfektion übertagen. Der Verzehr von durchgebratenem Schweinefleisch birgt nach derzeitigem Kenntnisstand keine Ansteckungsgefahr. Die Symptome ähneln denen einer saisonalen Grippe - Fieber (>38,5°C bzw. 101°F), Appetitlosigkeit, Schnupfen, Husten, Übelkeit - und treten innerhalb von zwei bis drei Tagen nach der Infektion auf. Jedoch kann das Virus bereits 24 Stunden nach Ansteckung und bereits vor dem Auftreten erster Symptome weiter übertragen werden. Reisende aus Mexiko sollten sich nach der Rückkehr mindestens 72 Stunden zu Hause aufhalten, ihren Gesundheitszustand überwachen und sich mit ihrem lokalen Gesundheitsdienst oder dem medizinischen Dienstleister in Verbindung setzen.

Weitere Informationen finden Sie auch auf der Internetseite der Weltgesundheitsorganisation: http://www.who.int
 
Einschätzung des Robert Koch Instituts:
 
Situationseinschätzung zur Neuen Influenza
Stand 30.04.2009, 13:20 Uhr

Die Weltgesundheitsorganisation (WHO) hat dieses A/H1N1-Virus am 25.4.2009 als gesundheitliches Risiko von internationaler Bedeutung eingestuft, eine vergleichbare Einstufung gab es beim Auftreten von SARS 2003. Die Weltgesundheitsorganisation hat am 27. April die pandemische Warnphase 4 und am Abend des 29. April 2009 die Phase 5 ausgerufen. Phase 5 wird charakterisiert durch eine Mensch-zu-Mensch-Übertragung des Virus in mindestens zwei Staaten einer WHO-Region. Die WHO betont, dass die meisten Staaten weltweit noch nicht betroffen sind von der neuen Grippe.

Die Risikoeinschätzung für Deutschland ändert sich durch die geänderte Einstufung nicht. In Deutschland gibt es einzelne eingeschleppte Fälle. Das Nationale Referenzzentrum für Influenza des Robert Koch-Instituts hat seit 29.4.2009 keine neuen Erkrankungsfälle durch die neue Grippe A/H1N1 („Schweinegrippe“) bestätigt. Einzelheiten zu den bisherigen drei Fällen enthält die Pressemitteilung vom 29.4.2009. Derzeit sind Proben einiger weniger Fälle in Untersuchung.

Das Robert Koch-Institut hatte in den vergangenen Tagen mitgeteilt, dass die Einschleppung von Fällen möglich sein könnte und am 26.4.2009 von ersten Verdachtsfällen berichtet. Auf eine solche Situation hat sich Deutschland in den vergangenen Jahren vorbereitet. Das Robert Koch-Institut hat wie in der Pressemitteilung vom 27.4.2009 mitgeteilt, den gemeinsam von Bund und Ländern getragenen Nationalen Pandemieplan Anfang 2005 und eine aktualisierte Fassung 2007 veröffentlicht. Der Pandemieplan enthält Maßnahmen, Aufgaben und Handlungsempfehlungen und erläutert die wissenschaftlichen Zusammenhänge der Pandemieplanung.

Für die Einschleppung von Fällen haben die Gesundheitsbehörden des Bundes und der Länder Maßnahmen ergriffen. Zusammen mit dem Bundesministerium für Gesundheit und den Ländern hat das RKI die bestehenden Empfehlungen zum Vorgehen in solchen Situationen an die aktuelle Situation angepasst und den Gesundheitsämtern, Krankenhäusern und Ärzten zur Verfügung gestellt. Die Maßnahme-Empfehlungen sind auch auf den Internetseiten des Robert Koch-Instituts abrufbar. Darunter sind auch Empfehlungen für Gesundheitsbehörden vor Ort zum Vorgehen bei einem Schweinegrippe-Verdachtsfall, zur Probenentnahme und Hinweise für Flugpassagiere, in deren Flugzeug sich Personen mit Atemwegserkrankungen aufhielten (in Englisch, Deutsch, Spanisch). Bezüglich des Schutzes des Medizinpersonals greifen die bestehenden Empfehlungen, wie sie bei Influenza üblich sind.

Für die Bevölkerung wird derzeit nach wie vor keine allgemeine Gefährdung durch die Schweinegrippe gesehen. Generell empfohlene persönliche Hygienemaßnahmen sollten aber besonders beachtet werden, insbesondere bei Kontakt zu Reiserückkehrern aus betroffenen Regionen. Influenzaviren werden vor allem durch Tröpfcheninfektion übertragen. Insbesondere beim Niesen oder Husten können Erreger auch auf die Hände gelangen und darüber weiterverbreitet werden. Daher wird häufiges Händewaschen empfohlen, außerdem sollten die Hände vom Gesicht ferngehalten werden, die die Erreger leicht auf die Schleimhäute von Augen, Nase und Mund übergehen können. Beim Husten sollte in den Ärmel gehustet werden. Ausführliche Informationen zu persönlichen Schutzmaßnahmen bei Virusinfektionen sind in der Broschüre „Selbstverteidigung gegen Viren“ enthalten, die unter http://www.wir-gegen-viren.de abrufbar ist und ab Mitte Mai bei der Bundeszentrale für gesundheitliche Aufklärung in Köln bestellt werden kann.

Die Neuraminidasehemmer (antivirale Medikamente gegen Influenzaviren) scheinen bei dem Schweinevirus wirksam zu sein. Es ist bislang nicht bekannt, ob der saisonale H1N1-Impfstoff gegen dieses Virus schützt, das wird derzeit geprüft.

Posted via web from Superglide's Personal Blog ...

NAB2009: Videoreport Autodesk "Flare" neue Compositing Software ...


Neben neuen Versionen seiner bestehenden Programme zeigt Autodesk während der NAB2009 das neue Software-Only-System Flare 2010. Im Videoreport gibt Robert Coulin von Dreamwalks Infos dazu und zu weiteren Themen, die Autodesk betreffen.

Flare 2010 ist als Ergänzung zu anderen Systemen von Autodesk wie Flame und Flint konzipiert, quasi als Assistenten-Arbeitsplatz. Es handelt sich bei Flare um ein reines Software-Paket. Flare soll die Lücke zwischen 2D- und 3D-Bearbeitung schließen. Das Programm ist für die Anwendung im Bereich Compositing, anspruchsvolle Grafik und interaktives Design gedacht. Auch Aufgaben wie Rotoscoping, Retusche, Schmutzentfernung oder Keying sind möglich. Nach den Vorstellungen von Autodesk sollen einzelne Teilaufgaben von Flame, Inferno udn Flint auf Flare ausgelagert werden. Es können auch mehrere Flare-Systeme parallel einem Hauptsystem zuarbeiten. Auch als Stand-Alone-System, in das die jeweiligen Aufgaben übertragen werden, kann Flare Verwendung finden. Die Software ist hierfür mit der Compositing-Umgebung Action-3D mit erweiterten 3D-Tools ausgestattet.

Auch die VFX- und Compositing-Systeme Inferno und Flame selbst liegen nun in der neuen Version 2010 vor. So wurden weitere Tools integriert, wie beispielsweise ein GPU-beschleunigter 3D-Blur und 3D-Path sowie Erweiterungen beim 3D-Text und bei den Displacement Mapping Tools. Über die Wiretap-Central-Software von Autodesk wurde eine erweiterte Unterstützung für Redcode-Raw-Files, Mehrkanal OpenEXR-Import und DNxHD mit Quicktime implementiert. Im Processing gibt es nun Floating-Point-Support. Ebenfalls wurde der Modular Keyer aufgefrischt und verfügt nun über anpassbare Presets. Für die Arbeitsabläufe beim dateibasierten Conforming stehen eine neue Suchmaschine, sowie konfigurierbare Import-Settings mit Metadaten-Unterstützung bereit.

Das kostengünstigere Flint-System zeigt Autodesk ebenfalls in Version 2010. Die wichtigsten Erweiterungen wurden analog zu den genannten Neuerungen bei Flame vorgenommen.

Eine aktualisierte Version mit der Versionsnummer 2010 liegt auch von dem Editing- und Finishing-System Smoke vor. Betont werden von Autodesk auch hier Neuerungen im Bereich der 3D-Tools, der verbesserten Redcode-Raw-Support sowie die verbesserten Conforming-Funktionen. Autodesk erweitert seine Red-Workflows, um schnellere und flexiblere Import-Optionen bereitzustellen. Außerdem gibt es laut Hersteller Weiterentwicklungen bei der 3:2-Pulldown-Erkennung und der eventuell notwendigen Entfernung von Pulldown-Artefakten.

Das Color Grading-System Lustre 2009 Extension 1 bietet neue Möglichkeiten der Farbseparation, basierend auf dem Autodesk Diamond Keyer. 3D LUTs sollen komplexe Farbtransformationen erleichtern. Die erweiterte Formatunterstützung für Red und DNxHD spielt auch bei Lustre eine Rolle. Auch das Zusammenspiel zwischen Lustre und Flame, Inferno und Smoke wurde laut Hersteller verbessert.

Weiter wird vom Hersteller der Beschleuniger Incinerator 2009 Extension 1 im Rahmen der NAB2009 gezeigt.

Die 2010-Versionen von Autodesk Flame, Flare, Flint, Inferno und Smoke sollen ab 20. April 2009 verfügbar sein. Die Lustre / Incinerator 2009 Extension 1 Versionen sollen voraussichtlich ab 22. April 2009 folgen.

Videoreport:

http://bit.ly/KCRuH

Quelle:

http://www.film-tv-video.de

Posted via web from Superglide's Personal Blog ...

"Digital Natives" ... die geborenen Spieler? ...


Manchmal sind sie anstrengend, manchmal auch ein wenig unheimlich: Teenager, die sich nur nach wiederholter Aufforderung von PC oder Spielkonsole lösen, um dann – unter dem Esstisch – per SMS weiter mit den Kumpels zu kommunizieren. Oder Kinder, die kaum lesen und schreiben können, sich aber in atemberaubender Geschwindigkeit durch das Menü des gerade erst gekauften Mobiltelefons hangeln, während man selbst stundenlang nach dem Einschaltknopf gesucht hat.

Sie lesen Blogs statt Zeitungen, sie lernen sich online kennen in Chats und Foren, lange bevor sie sich zum ersten Mal physisch miteinander verabreden. Sie besorgen sich ihre Musik online – oftmals illegal – statt in einem Laden, und sie benutzen Instant-Messaging-Software, statt zum Telefon zu greifen. "Digital Natives" werden diese Kinder und Jugendlichen in der einschlägigen Literatur genannt, "digitale Eingeborene" in Abgrenzung zu den "digitalen Immigranten" der Über-30-Jährigen – ein Leben ohne Internet und Handy haben die nach 1980 Geborenen nie kennengelernt.

Man könnte geneigt sein, das bestenfalls für ein Thema von Lehrern, Sozialpädagogen und Medienforschern zu halten. Wäre da nicht die Tatsache, dass die ersten Vertreter dieser Generation ihr Studium oder ihre Ausbildung jetzt hinter sich gebracht haben und nun ins Management aufrücken – in zehn bis zwanzig Jahren sind einige von ihnen auch in den Führungspositionen der Wirtschaft angekommen. "Und die bringen Fähigkeiten mit, die sie sich in Tausenden von Stunden bei Computerspielen perfektioniert haben", sagt der IBM-Wissenschaftler Moshe Rappoport. "Das verändert die Art und Weise, wie Business in den nächsten Jahren funktionieren wird, ganz grundsätzlich."

Rappoport, im korrekten schwarzen Anzug, mit grauen Haaren und einem nicht minder grauen, langen Vollbart, wirkt auf den ersten Blick nicht wie einer, der sich hauptamtlich mit computeraffinen Jugendlichen beschäftigt. Seit 2001 arbeitet der Informatiker jedoch als "Executive Technology Briefer" am IBM-Forschungszentrum in Zürich. Im "Global Technology Outlook" von IBM, einer jährlichen Bestandsaufnahme und Strategiediskussion der IBM-Führungsmannschaft, ist Rappoport dafür zuständig, die sozioökonomischen Trends zu beschreiben, die das Geschäftsumfeld des Konzerns in Zukunft bestimmen. In den letzten 20 Jahren hat IBM erfahren müssen, dass es nicht reicht, gute Technologie anzubieten. "Unter Umständen kann man sehr gute Technologie anbieten, aber es ist trotzdem nicht das Richtige, weil die Bedürfnisse der Kunden aus der Wirtschaft mittlerweile ganz andere sind", sagt Rappoport. "Das hätte IBM 1993 fast die Existenz gekostet." Nur durch einen radikalen Kurswechsel konnte sich der durch das zusammengebrochene Geschäft mit Großrechnern und das Aufkommen billiger PC-Nachbauten schwer angeschlagene Konzern damals retten.

Damit das nicht wieder passiert, analysiert Rappoport unter anderem die Entwicklung der Digital Natives. Und kommt dabei zu weitreichenden Folgerungen: "Die meisten Computerspiele präsentieren dem Spieler sehr viele multimediale Informationen", erklärt der Informatiker, "aber nicht alle diese Informationen sind wesentlich, um das Spiel zu gewinnen." Ganz wichtig für einen erfolgreichen Spieler sei deshalb die Fähigkeit, in Echtzeit zu entscheiden, welche Information wesentlich ist, was notwendig ist, um zu gewinnen, und was unwichtig ist. Spieler müssten außerdem bereit sein, Risiken einzugehen – wer zu vorsichtig spielt, verliert. Und sie müssten verlieren können: "Du tust, was du kannst, aber du gewinnst eben nicht immer. Du kannst dich aber nicht jedes Mal krank ärgern, wenn du verloren hast, sondern spielst weiter."

Wenn der Spielspaß wesentlich wichtiger würde als das Erlebnis, zu verlieren, würden die Erfahrungen und Fähigkeiten aus den Computerspielen zu einem völlig anderen psychologischen Grundmuster führen als bisher, argumentiert Rappoport, und damit auch zu einer anderen Form von Management: "Man nimmt sich nicht mehr die Zeit, alle Informationen, die zur Verfügung stehen, zu studieren. Man probiert lieber aus – probieren geht schneller als studieren." Weil das Risiko im Spiel ja kein wirkliches Risiko für die spielende Person bedeutet.

"Das wird sicherlich ein Menge Konsequenzen haben", sagt Maria Bezaitis. Die Leiterin des "People and Practices"-Labors von Intel erforscht die Techniknutzung von sechs- bis zwölfjährigen Kindern. "Wir sehen hier eine völlig neue Art von Bildung", resümiert die Soziologin. "Wir nennen die Kinder post-alphabetisch. Diese Kids sind in der Lage, die Grenzen verschiedener Technologien einfach so zu überschreiten – ohne jede Hemmung. Sie mischen munter Text, Video, Musik und Bilder, ohne groß darüber nachzudenken." Mit Rückschlüssen hält sich die Soziologin aber zurück: "Wir wissen noch nicht genug darüber, um die Konsequenzen wirklich zu verstehen."

Obwohl es in den Medien eine Menge Berichte zu den Digital Natives gäbe, findet Bezaitis das Urteil der Experten oft zu voreilig: "Wir lesen immer mehr über Internetsucht und Aufmerksamkeitsstörungen – und wie die neuen Kommunikationstechnologien diese Probleme verursachen. Aber wir wissen noch nicht genug darüber. Es sieht wie Internetsucht aus, wenn diese Kinder und Jugendlichen viel Zeit online verbringen. Aber sie machen da eine Menge innovativer Dinge – ihre Beziehung zum Internet ist sehr interaktiv." Das Internet eröffne besonders Jugendlichen neue Möglichkeiten der sozialen Teilhabe. Und es sei wichtig, diese neuen Sozialtechniken erst mal in einem positiven Licht zu sehen.

Der Einfluss der Digital Natives sei jedoch bereits heute spürbar, hält Rappoport dagegen. "Früher ist ein Kunde, wenn er einen neuen DVD-Player kaufen wollte, in einen Laden gegangen. Da standen eine ganze Menge Geräte – und der Kunde ist zu einem Verkäufer gegangen und hat sich beraten lassen." Heute könne das ganz anders aussehen, die Macht würde sich vom Verkäufer zum Käufer verschieben: "Auch Digital Natives kommen in den Laden und lassen sich ein Gerät empfehlen. Aber dann machen Sie mit dem Smartphone ein Foto davon und rufen eine Website mit Kundenrezensionen oder ein Forum auf. Dort lesen sie direkt, was andere für Erfahrungen damit gemacht haben. Und dann sehen sie noch, dass es ein paar Kilometer weiter einen anderen Laden gibt, wo man dieses Gerät für 100 Euro weniger kaufen kann." Die Firmen würden natürlich versuchen, sich dagegen zu wehren, sagt Rappoport, etwa durch Zurückhalten von Informationen. "Aber das wird nicht funktionieren. Sie müssen schneller werden, sonst werden sie von den jungen Leuten als Dinosaurier angesehen."

Dan Rasmus, Director of Business Insights bei Microsoft, ist wesentlich weniger pessimistisch. Er lobt vor allem die "Offenheit und Vernetzung" der Digital Natives: "Das ist die erste Generation von Wissensarbeitern, die tatsächlich global vernetzt ist", sagt Rasmus. Die Wahrnehmung, dass es keine Grenzen gibt – weder zeitlich noch räumlich –, unterscheide sich sehr stark von jener der Baby Boomer, die jetzt in den Führungspositionen säßen: "Ich kenne Leute, die verwalten einen Betrieb an der Westküste der USA von Ungarn aus. Die unterschiedlichen Zeitzonen sind für diese Leute kein Problem – die leben einfach damit."

Ein wichtiger Punkt, den die Unternehmen beim Umgang mit Digital Natives allerdings beachten müssten, sei ihr großes Vertrauen in die eigenen sozialen Netzwerke. "Wir wissen aus unserer Forschung, dass Digital Natives in geschäftlichen Dingen wahrscheinlich eher auf Menschen aus ihrem persönlichen Netzwerk hören als auf Kollegen aus dem eigenen Betrieb", sagt Rasmus. Auf der einen Seite gebe es dabei natürlich Probleme mit der Sicherheit und dem Umgang mit geistigem Eigentum. Regierungen, Versicherungen oder Banken machten sich darüber eine Menge Sorgen. Aber es gebe auch Unternehmen, die jene neuen Möglichkeiten, die sich daraus ergeben, sehr positiv aufnähmen. Denn neue Ideen könnten so sehr schnell und kostengünstig getestet und diskutiert werden.

In seinen "Office Labs" forscht Microsoft zudem an Soft- und Hardware, die das Optimum aus den Fähigkeiten der Digital Natives herausholen sollen. Die einzelnen Arbeitsplätze etwa werden in Zukunft nicht mehr mit einem, sondern eher mit einem Halbrund aus drei Monitoren ausgestattet: Microsoft hat dazu mit der Fraunhofer-Gesellschaft Studien durchgeführt. "Das Ergebnis war, dass Multi-Monitor-Arbeitsplätze die Produktivität steigern", sagt Rasmus. Denn mehrere Monitore erleichtern die Segmentierung: Statt sich durch verschiedene Fenster zu klicken, kann der Mitarbeiter seinen Kalender auf eine Seite stellen und den zu bearbeitenden Text auf die andere. Durch das parallele Öffnen von Anwendungen und das Verteilen der Fenster auf feste Plätze werde die Konzentration nicht ständig auf neue Objekte fokussiert. So könnten gleichzeitig mehr Informationen im Blick behalten und verarbeitet werden.

Im Zentrum der Forschung steht zudem die Zusammenarbeit flexibler Teams: Große Multi-Touch-Displays etwa werden für Besprechungen verwendet, im Hintergrund laufende Software sorgt dafür, dass man zu jeder Zeit an jedem Ort alle für die jeweilige Aufgabe relevanten Informationen präsentiert bekommt, die Präsentation der eigenen Ideen und Ergebnisse soll zudem möglichst einfach, direkt und natürlich ablaufen – kein technischer Firlefanz soll vom Geschäft ablenken.

Der Wandel der Geschäftswelt ist anscheinend nicht aufzuhalten: In den kommenden Jahren werden die Digital Immigrants, die jetzt allmählich ins Rentenalter kommen, mehr und mehr von Digital Natives ersetzt werden. "Das könnte gewaltige Auswirkungen haben", warnt Rappoport hartnäckig. "Wir haben noch gewusst, dass Computer Fehler machen. Aber die jungen Leute haben das oft noch nicht erlebt. Sie werden zu schnell handeln, ohne dass sie die Risiken voll verstehen." Vielleicht, meint der Zukunftsexperte, sei die Finanzkrise ja bereits ein Vorbote dieser Entwicklung.

Hat er eine Lösung für dieses Problem? Ja, sagt er, und sie sei verblüffend simpel: "Lassen Sie ältere Menschen mit viel Erfahrung und junge, ehrgeizige Menschen zusammenarbeiten", sagt Rappoport. Das ergebe oft ein Powerteam: "Weil der eine das denkt, was der andere gar nicht denken kann."

Quelle:

Wolfgang Stieler

Posted via web from Superglide's Personal Blog ...

Google-Experiment sucht aktuell Schweinegrippe-Verbreitungspfad in Mexiko ...


Viele Experten versuchen dieser Tage mit unterschiedlichen Methoden die Verbreitungspfade der Schweinegrippe zu bestimmen. Auch der Suchmaschinengigant Google beteiligt sich auf seine Art an diesen Bemühungen.

Mit dem Projekt „Experimental Flu Trends for Mexico“ soll untersucht werden, inwieweit sich Suchmaschinenergebnisse für die Analyse einer Krankheitsausbreitung eignen. Die Experten des Suchmaschinenunternehmens gehen davon aus, dass das lokale Suchverhalten der Menschen offenbar Rückschlüsse auf eine Verbreitung einer Krankheit in einer Region zulässt. Denn wer infiziert ist oder sich vor einer Ansteckung in seiner Gegend fürchtet, sucht anscheinend vermehrt nach Informationen über eine Krankheit im Web.

Basis des Experiments ist das Tool „Google Flu Trends“, das in den USA bereits im November letzten Jahres zur Erforschung der Ausbreitung der Influenza eingeführt worden. Weil das Verfahren in Echtzeit die Suchanfragen überwacht, könnte es lokale Ausbrüche einer Krankheit möglicherweise schneller als andere Systeme erkennen. (cid/rs)

» Schweinegrippe-Experiment von Google aufrufen

Posted via web from Superglide's Personal Blog ...

Deutsche Telekom legt Mobilfunk und Festnetz zusammen ...


Die Deutsche Telekom legt ihr Festnetz- und Mobilfunkgeschäft am Heimatmarkt zusammen. Der Aufsichtsrat habe den Vorschlägen des Vorstands für die neue Struktur zugestimmt, erklärte der Konzern am 30. April 2009.

Telekom-Logo

Alle unter einem Dach: Die Telekom legt Handy und Festnetz zusammen.

Mit der Zusammenlegung will die Telekom wettbewerbsfähiger werden und Marktanteile gewinnen. „Wir müssen und werden im Sinne der Kunden als eine Firma, als eine Telekom auftreten“, sagte Konzernchef Rene Obermann auf der Aktionärsversammlung in Köln. Mit einer einheitlichen Kundenbetreuung kann die Telekom auch Geld sparen, da es etwa nur noch ein Computersystem gibt.

Die Telekom hatte die Pläne im Februar angekündigt. Die Integration der Geschäftsbereiche ist eine Fortführung der Zusammenlegung von Verkauf und Kundendienst der Mobilfunktochter T-Mobile und der Festnetzsparte T-Home in Deutschland, die bereits Ende 2006 mit dem Antritt von Obermann erfolgt war. Den neuen Bereich wird Niek Jan van Damme leiten, seit 2004 Geschäftsführer des niederländischen T-Mobile-Ablegers. Auch andere Konzerne reagieren mit kombinierten Angebote und einer Integration auf das Zusammenwachsen von Festnetz und Mobilfunk. Noch in diesem Jahr sollen die Telekom-Aktionäre auf einer außerordentlichen Hauptversammlung über die Verschmelzung entscheiden, von der nach Angaben eines Sprechers rund 20.000 Mitarbeiter betroffen sind. Der Konzern bekräftigte, die Zusammenlegung sei nicht mit einem neuen Personalabbauprogramm verbunden. (Reuters/rs)

Posted via web from Superglide's Personal Blog ...

Zeitung: Apple will künftig Chips selbst entwickeln ...


Apple will einem Bericht des „Wall Street Journal“ zufolge Computerchips künftig selbst entwickeln, die auf seine Produkte maßgeschneidert sind.

PC-Prozessor

Gerücht: Entwickelt Apple eigene Computerchips? Foto: aboutpixel.de/©Sabado

Damit könnte sich der Computer- und iPhone-Hersteller unabhängig von den derzeit verfügbaren Chips machen und seine Produkte mit exklusiven Funktionen ausstatten, schreibt die Zeitung unter Berufung auf mit der Sache vertraute Personen am Donnerstag. Von dem weltweit zweitgrößten Prozessorhersteller AMD hatte Apple zuletzt nach Bob Debrin auch den AMD-Grafikspezialisten Raja Koduri angeworben, der in dieser Woche seine Arbeit bei Apple beginnt.

Vor allem für seine populären „iPhone“-Handys benötigt das Unternehmen aus Cupertino leistungsfähige und besonders stromsparende Chips. Bislang setzt Apple hier Produkte des Chip-Designers ARM ein. Mobil-Prozessoren von Intel wie etwa die Atom-Chips waren bislang für die kleinen Geräte zu stromhungrig. In eigener Entwicklung wolle Apple Prozessoren und Grafik-Chips konstruieren, die noch weniger Energie brauchen und dabei die Leistung steigern, um zum Beispiel auf künftigen iPhones hochaufgelöste Videos abspielen zu können, hieß es. (dpa/rs)

Posted via web from Superglide's Personal Blog ...

NAB2009: Nagra stellt kompakten Zweikanal-Audiorecorder LB vor ...


Die wichtigsten Voraussetzungen für eine Web-Anbindung über Bluetooth/GSM und Ethernet sind bereits mit an Bord.

Mit dem LB stellt Nagra einen Recorder in der 2.000-Euro-Klasse vor, der auf CF-Speicherkarten aufzeichnet. Er ist als Zweikanalrecorder ausgelegt und lässt sich auf Sample-Frequenzen von bis zu 192 kHz einstellen. Die Auflösung beträgt dabei 16 oder 24 Bit. Der eingebaute Speicher von 2 GB lässt sich über eine Compact-Flash-Karte jederzeit erweitern. Muss während einer laufenden Aufnahme das Speichermedium gewechselt werden, so kann währenddessen der interne Speicher die Speicherfunktion übernehmen, so dass nahtlose Aufnahmen möglich sind.

Ein eingebauter Bluetooth-Client ermöglicht laut Hersteller das Verschicken von Audio-Files via Handy und GSM. Außerdem ermöglicht eine eingebaute Ethernet-Schnittstelle eine direkte Verbindung mit dem Internet. Die Mikrofoneingänge bieten schaltbare 48-V-Phantomspeisung und sind auf Line-Empfindlichkeit umschaltbar. LB ist laut Hersteller bereits über den Fachhandel verfügbar.

Quelle:

http://www.film-tv-video.de

Posted via web from Superglide's Personal Blog ...

Telekom sieht sich mit "Entertain" als HDTV-Vorreiter auf dem deutschen Markt


Dabei wird die Deutsche Telekom den Abonnenten ihres IPTV-Angebots "Entertain" ab der kommenden Bundesliga-Saison alle Spiele der 1. Liga in HDTV-Qualität ins Wohnzimmer bringen. Im Interview bezeichnet Christian Illek, Bereichsvorstand Marketing T-Home, die Telekom in punkto HDTV als Vorreiter.

Mit Premiere tritt die Telekom künftig in direkte Konkurrenz bei der Ausstrahlung der Fußball-Bundesliga. Überzeugen soll "LIGA total!" v.a. dadurch, dass hier die dreifache Menge der Partien, die Premiere anbietet, übertragen wird, wie ein Telekom-Sprecher unterstreicht. Die Pay-TV-Palttform Premiere kann über Satellit und Kabel lediglich ein Drittel aller Bundesliga-Spiele zeigen.
 

Für eine Zusammenarbeit mit Constantin Medien hat sich die Telekom bewusst entschieden, da das Unternehmen "als Deutschlands größter Sport-TV-Produzent für jahrelange, ausgewiesene Expertise in der redaktionellen Sportberichterstattung steht", erklärt Christian Illek.

Die Zusammenarbeit mit der Premiere AG verlängerte die Telekom nicht, da sich der Konzern "für einen eigenständigen Auftritt" entschieden hat, "um ein differenziertes Angebot anzubieten". Dabei sollen Illek zufolge insbesondere lineare und non-lineare Inhalte verzahnt werden. Zusätzlich soll nun "zum ersten Mal das volle Potential, das in der IPTV-Technologie steckt" ausgenutzt und das Produkt zukünftig technisch und inhaltlich kontinuierlich weiterentwickelt werden.

Mit dem neuen Fußball-Bundesligaangebot "LIGA total!" sollen langfristig auch mehr Kunden für Entertain begeistert werden. Das neue Produkt bezeichnet Illek als ein "strategisches Standbein der Entertain-Vermarktung". Insgesamt sollen bis zum Ende dieses Jahres so mehr als eine Million Entertain-Pakete vermarktet werden. "Dazu zählen natürlich auch die Bundesliga-Abonnenten", so Illek abschließend.

Quelle:

http://www.digitalfernsehen.de

Posted via web from Superglide's Personal Blog ...

Touchscreen jetzt auch mit Knöpfen ...


Berührungsempfindliche Bildschirme werden immer populärer – besonders im Bereich der hochauflösenden Smartphones ist der Boom ungebrochen. Doch die Displays von iPhone und Co. haben ein grundlegendes Problem: Man muss stets ein Auge auf sie haben, um die richtigen virtuellen Knöpfe zu treffen. Mit dem Siegeszug der Touchscreens in anderen Bereichen wie Navigationssystemen und Audioanlagen fürs Auto kann dieses fehlende sensorische Feedback jedoch schnell zur gefährlichen Ablenkung führen.

Forscher an der Carnegie Mellon University haben deshalb nun einen Bildschirm entwickelt, bei dem sich fühlbare Knöpfe aus der Touchscreen-Oberfläche erheben können. Das Design behält die Dynamik eines regulären berührungsempfindlichen Displays bei, ergänzt es aber um konkret anfassbare Bereiche für bestimmte Funktionen, etwa ein Nummernfeld.

Das vom Informatikprofessor Scott Hudson und seinem Master-Studenten Chris Harrison entworfene System liegt bereits in Prototypform vor. Der Schirm selbst ist dabei mit einem teildurchlässigen Latex überzogen, das auf einer Acrylplatte sitzt, in der sich ausgeformte Löcher befinden. Hinzu kommt eine Luftkammer, die an eine Pumpe angeschlossen ist. Ist diese abgeschaltet, bleibt der Schirm flach; angeschaltet bildet das Latexmaterial Wölbungen oder zieht sich nach innen, je nachdem, ob positiver oder negativer pneumatischer Druck darauf ausgeübt wird.

Um den Bildschirm zu beleuchten und ihm die notwendigen Multitouch-Fähigkeiten zu geben, verwenden die Forscher Projektoren, infrarotes Licht und Kameras, die unter der Oberfläche angeordnet sind. Die Projektoren bringen das Bild auf den Schirm, und die Kameras erkennen das von den Fingern gestreute Infrarotlicht, wie man es bereits von Computertischen wie Microsofts "Surface" her kennt.

Die Idee eines berührungsempfindlichen Bildschirms, der gleichzeitig sensorisches Feedback gibt, ist nicht neu. In den vergangenen Jahren haben Forscher bereits versucht, Bildschirme aus Polymermaterialien herzustellen, die ihre Form durch Hitze, Licht oder ein Magnetfeld verändern können. Noch sind diese Ansätze aber nur experimentell und relativ teuer umzusetzen.

Einfachere Systeme wie die Kombination von Latex und pneumatischen Pumpen wurden ebenfalls bereits getestet. Hudson und sein Team bieten mit dem Prototyp aber wesentlich mehr Funktionalität. Das Display sei das erste, das bewegliche Teile (die Knöpfe), eine dynamische Informationsdarstellung (das projizierte Bild) und die Berührungsempfindlichkeit (mittels Infrarotlicht und Kamera) kombiniere, sagen Hudson und Harrison. Andere Projekte erreichten üblicherweise nur zwei dieser drei Kriterien.

"Microsofts Surface-Tisch bietet dynamische Grafiken und man kann ihn berühren, doch die Fläche bleibt dabei völlig fix", sagt Harrison. Knöpfe auf dem Armaturenbrett böten wiederum ein ideales sensorisches Feedback, hätten aber keinen wandelbaren Inhalt. "Außerdem kann man nicht einfach einen LC-Schirm nehmen, ihn verformen und ihn gleichzeitig elektrisch leitfähig halten."

Weil das System der Forscher mit pneumatischem Druck arbeitet, kann dieser wiederum selbst als Eingabe verwendet werden. Nutzt man den Schirm beispielsweise als Kontrolleinheit für einen Musikspieler, könnte eine Person einen Knopf stärker drücken, um schneller vorzuspulen. Zwar können diverse berührungsempfindliche Bildschirme bereits verschiedene Druckpunkte registrieren, doch ein sensorisches Feedback von der festen Glas- oder Kunststoffoberfläche gibt es nicht.

Rob Miller, Professor für Elektro- und Computertechnik am MIT, meint, dass ein solches Interface sich besonders gut für den Einbau in Fahrzeuge eignen würde. "Wenn man ein Auto fährt, ist man situationsbedingt sensorisch eingeschränkt. Die Augen müssen auf der Straße bleiben und dürfen nicht nach dem passenden Knopf Ausschau halten und gleichzeitig registrieren, ob er richtig gedrückt wurde."

In einer kleinen Fahrsimulator-Nutzerstudie mit dem Display der Carnegie Mellon-Forscher zeigte sich, dass die pneumatischen Knöpfe leichter verwendbar sind als statische. Die Tester schauten auf die pneumatischen Knöpfe außerdem nur so häufig wie auf echte Drücker – also wesentlich seltener als auf normale Touchscreens.

Aufgrund der notwendigen pneumatischen Technik ist das System derzeit allerdings noch recht groß, doch Harrison will es bald verkleinern. "Wir können eine solche Pumpe zwar nicht in ein Handy quetschen, aber es wäre möglich, mit einem Ballon zu arbeiten, den man mit einem konventionellen Stellmotor verändert."

Quelle:

Kate Greene

Posted via web from Superglide's Personal Blog ...

NAB2009: Trackball/Controller von JL Cooper als Mausersatz bei der Verwendung von Mac OS X-Treibern ...


Der Eclipse NX von JL Cooper lässt sich als Standalone-Controller oder als Ergänzung zu vorhandenen Controllern verwenden.


Große Bedienelemente für die Hauptfunktionen sollen das Arbeiten gegenüber Konkurrenzprodukten erleichtern.

Der Controller eignet sich bei Verwendung mit Mac OS X-Treibern als vollwertiger und ergonomischer Ersatz für Maus, Trackball oder andere Bildschirm-Navigationsgeräte.

Neben dem zentral angeordneten Trackball bietet der Conroller sechs Drehregler und einen um den Trackball angeordneten Drehring. Weiter befinden sich acht frei programmierbare Tasten auf dem Bedienfeld.

Quelle:

http://www.film-tv-video.de

Posted via web from Superglide's Personal Blog ...

Mittwoch, 29. April 2009

PSP Go!: Erste Infos zum neuen Sony-Handheld


Nächstes PSP-Modell ohne UMD-Laufwerk Playstation Portable (PSP)

Bekommt einen Nachfolger: Sonys Playstation Portable.

Erst unterhielten sich die Redakteure der Videospiel-Seite 1Up im hauseigenen Podcast lang und breit über den PSP-Nachfolger, dann wurde der Teil aus der Show entfernt. Nun folgt ein Artikel mit folgender Meldung: Auf der kommenden Electronic Entertainment Expo (E3, 2. bis 4. Juni 2009 in Los Angeles) werde Sony das neue PSP-Modell offiziell enthüllen.

Einzelheiten zum neuen Handheld liefert das Magazin auch: Das Gerät heißt vermutlich PSP Go!, abgeleitet von dem Video-Service Go!View und der PSP-Kamera Go!Cam, und besitzt kein UMD-Laufwerk. Es sollen zwei Versionen der PSP Go! in den Handel kommen: eine mit acht Gigabyte (GB), die andere mit 16 GB internem Speicher. Mit dem neuen Handheld laden Sie sich die Spiele vermutlich aus dem Playstation-Store. Als Start-Titel für den Verkaufsstart stünde „Gran Turismo Mobile“ bereit. Zusätzlich werde Sony 100 weitere Titel anbieten. Auf den von vielen Spielern geforderten zweiten Analogstick verzichtet Sony laut der 1Up-Quellen.

Erscheinungstermin PSP Go!: Herbst 2009. (jck)

Posted via web from Superglide's Personal Blog ...

"Home": Umweltfilm startet zeitgleich sowohl im Kino als auch auf YouTube ...


Am 5. Juni 2009, dem Tag der Umwelt, läuft der Dokumentarfilm „Home“ von Erfolgsregisseur Luc Besson an, der zur Abwechslung die Rolle des Produzenten übernommen hat. In dem 90-minütigen Werk, das den kritischen Zustand der Erde thematisiert, führte der bekannte Fotograf Yann Arthus-Bertrand Regie. Besonderheit: Der Streifen ist zeitgleich zum Kinostart auch im Internet zu sehen.


Der YouTube-Kanal des Umweltprojekts Home

Der YouTube-Kanal des Umweltprojekts Home

YouTube bietet Sprachversionen des Films in Deutsch, Englisch, Französisch und Spanisch. Erste Film-Ausschnitte, Interviews und Einblicke hinter die Kulissen des Filmdrehs laufen bereits auf dem YouTube-Kanal des Projekts, das Sie unter der Internetadresse www.youtube.com/homeproject erreichen.

Zusatz- und Hintergrundinformationen finden Sie auch in dem digitalen Kartendienst „Google Maps“. Dort lassen sich fünf integrierte Informationsebenen – sogenannte Layer – aktivieren, die nutzergenerierte Inhalte zu der Filmthematik sowie Wissenswertes zu Umwelt- und Naturschutz anzeigen. In einer weiteren Informationsschicht sind Orte markiert, an denen Home live vorgeführt wird. Denn zeitgleich zur Filmpremiere auf YouTube beginnt auch die Ausstrahlung in Kinos, im TV und als „Public Viewing“ auf Großleinwänden in Deutschland und in aller Welt.

Home will aufrütteln, der Film zeigt dem Zuschauer aus der Vogelperspektive Landschaften und vermittelt die komplexen Umweltprobleme der Erde aus der Luft. „Die Botschaft in diesem Film ist unglaublich wichtig, denn sie unterstreicht die Frage unseres Überlebens“, erläutert Arthus-Bertrand. Mit der Entscheidung Home auch im Internet und im Fernsehen zu zeigen, will man möglichst viele Menschen erreichen und für die Thematik sensibilisieren. (gh)

Posted via web from Superglide's Personal Blog ...

Google ist ca. 100 Milliarden Dollar wert ...


Mit gut 100 Milliarden Dollar ist Google einer Studie zufolge die wertvollste Marke der Welt. Zum dritten Mal in Folge sicherte sich das Internet-Unternehmen den Spitzenplatz und baute dabei seinen Abstand aus, wie eine Untersuchung des Marktforschungsunternehmens Millward Brown ergab.

Logo von Google

Rang zwei belegt der Software-Riese Microsoft (76,2 Milliarden Dollar), es folgen Coca-Cola (67,6 Milliarden), der Computerhersteller IBM und McDonald's. Neun deutsche Marken – und damit eine mehr als im Vorjahr – schafften es unter die besten 100. Neben den drei Autoherstellern BMW (Platz 18), Porsche (35) und Mercedes (40) sind dies der Softwareriese SAP (19), Siemens (51), die Deutsche-Telekom-Mobilfunktochter T-Mobile (63), die Post-Frachttochter DHL (68), der Discounter Aldi (74) und der Kosmetikhersteller Nivea (96).

Die Forscher stellten insbesondere das Ergebnis von Aldi heraus: In wirtschaftlich angespannten Zeiten sparten viele Menschen auch bei Lebensmitteln, das richte den Blick auf Discounter. Aldi ist auch in den USA vertreten.

Die Wirtschaftskrise schmälert vor allem den Wert der Automobilmarken, insbesondere Chevrolet und Ford, die der Studie zufolge 60 beziehungsweise 46 Prozent einbüßten. Toyota, BMW, Porsche, Mercedes und Volkswagen verloren zwischen 14 und 20 Prozent. Auch Werte von Banken und
Versicherungen schmolzen zusammen. Die Deutsche Bank – im Vorjahr noch auf Platz 42 – schaffte es gar nicht mehr unter die Top 100. Die Studie stützt sich den Angaben zufolge auf Finanzkennzahlen und Verbraucherbefragungen. (rtr/rs)

Posted via web from Superglide's Personal Blog ...

Amazon verschickt Pakete ab sofort auch mit Hermes ...


Der Onlinehändler Amazon verschickt seine Pakete ab sofort auch mit dem Post-Konkurrenten Hermes.

Eine Sprecherin von Amazon bestätigte das Vorhaben gegenüber der Tageszeitung „WELT“. Seit etwa einem Jahrzehnt waren in Deutschland ausschließlich die Deutsche Post und deren Tochtergesellschaft DHL für den Paketversand von Amazon zuständig. Hermes startet mit einem Volumen von fünf Millionen Pakten für Amazon. In den nächsten beiden Jahren soll dies bis auf rund 15 Millionen Sendungen verdreifacht werden. Amazon strebe langfristig an, die Paketmengen zwischen der Post und Hermes aufzuteilen. (AFP/rs)

Posted via web from Superglide's Personal Blog ...

Mobile Navigation: T-Mobile kooperiert mit Navigon ...


Ab Sommer 2009 werden alle GPS-fähigen Smartphones von T-Mobile mit der Navigationssoftware „MobileNavigator 7“ der Hamburger Firma Navigon ausgestattet.

Logos von T-Mobile und Navigon

Durch die Vorinstallation der Software erhalten T-Mobile-Kunden, die sich für ein derartiges Smartphone entscheiden, gleichzeitig ein mobiles Navigationsgerät. Darüber hinaus wird T-Mobile passendes Zubehör für die Navigon-Smartphones anbieten.

„Wir haben immer gesagt, dass 2009 ein entscheidendes Jahr in Sachen Handynavigation wird. Deshalb freuen wir uns sehr, mit T-Mobile einen erstklassigen Partner gefunden zu haben, mit dem wir völlig neue Möglichkeiten bei der Nutzung mobiler Navigation und beim Zugang zu mobilen Services schaffen“, sagt Egon Minar, Vorstandsvorsitzender der Navigon AG. (rs)

Posted via web from Superglide's Personal Blog ...

Microsoft Office 2007: System Service Pack 2 erschienen ...


Microsoft hat das „System Service Pack 2“ für die Bürosoftware „Office 2007“ veröffentlicht. Das Update soll Office sicherer, stabiler und schneller machen. Außerdem kommt das Programm endlich auch Dateien im OD-Format (bekannt von OpenOffice.org) zurecht.

Packshot Microsoft Office 2007

Nach Installation des System Service Pack 2 liest und schreibt Office 18 Dateiformate, darunter Office Open XML, ODF, XPS, PDF, HTML und RTF. Das „Open Document Format„ (ODF) kommt unter anderem im kostenlosen Office-Konkurrenten „OpenOffice.org“ zum Einsatz und findet immer weiter Verbreitung. Microsoft reagiert mit dem System Service Pack 2 auf diese Entwicklung und bietet die Möglichkeit, ODF als Standard-Format für Texte, Tabellen und Präsentationen einzustellen.

Das Office-Update steht im Internet zum Download bereit und wird von Microsoft gratis zur Verfügung gestellt. (rs)

» Download: System Service Pack 2 für Office 2007 herunterladen

Posted via web from Superglide's Personal Blog ...

NAB2009-Video: Sonnet zeigt Speichersysteme fürs Editing


Schnelle Speichermedien, die sich besonders gut für Editing-Applikationen eignen, sind die Spezialität von Sonnet. Zur NAB2009 zeigte der Hersteller neue Modelle und den Prototypen einer Kopierstation für Speichersticks.

Im Videoreport stellt CEO Robert Farnsworth neue Produkte von Sonnet vor, die besonders für den Editing-Bereich interessant sind.

Ab Juli 2009 will Sonnet das Speichersystem D400QR5 anbieten. Es kann mit bis zu 6 TB Festplattenkapazität bestückt werden, die dann im RAID-Level-5-Betrieb miteinander verknüpft werden und sich dem Rechner gegenüber wie eine einzige, schnelle Platte verhalten. Der Hersteller gibt an, dass damit Datenraten bis 220 MBps möglich sind. Mit 6-TB-Bestückung soll das System rund 2.000 US-Dollar kosten, das »leere« Gehäuse mit RAID-Controller und PC-Schnittstellen soll rund 600 US-Dollar angeboten werden (Netto-Listenpreise).

Noch als frühen Prototypen zeigte der Hersteller einen Multi-Card-Reader, der den sehr schnellen Transfer von auf Speicherkarten aufgezeichnetem Material in einen Rechner ermöglichen soll. Mit jeweils zwei Slots für Speichermedien der Typen SxS, P2 und CF ausgestattet, soll das Gerät mit inem PCIe-Extender den flotten Datentransfer ermöglichen. Für die direkte Verbindung mit Festplatten stehen vier eSata-Schnittstellen bereit. Mit 12-V-Anschluss über eine XLR-Buchse ist das Gerät auch bedingt feldtauglich. Als Netto-Listenpreis plant Sonnet rund 1.000 Euro.

Eine neue Version des High-End-Speichersystems von Sonnet ist Fusion RX 1600 RAID. Mit 16 einzelnen Laufwerken erweitert es die Palette an solchen Systemen bei Sonnet. Das 1600er-System soll rund 50 % schneller sein, als die Variante mit acht Laufwerken. Das System wird in einer Single-User-Version mit PCIe-Anschluss angeboten, das laut Hersteller Datenraten bis zu 1.100 MBps erreicht. In einer Fibre-Channel-Variante — für die Nutzung als Shared-Storage — ist das System ebenfalls verfügbar, dann teilen sich mehrere Nutzer die Bandbreite des Systems. Verfügbar ist der Speicher mit 16 bis 24 TB, die größte Ausbaustufe soll in der Direktanschlussversion rund 12.000 US-Dollar kosten, in der Fibre-Channnel-Variante etwa 25.000 US-Dollar.

Videoreport:

http://bit.ly/6Dno7

Quelle:

http://www.film-tv-video.de

Posted via web from Superglide's Personal Blog ...

Die Arbeit der "Klimaklempner" ...


Da sollte man doch hellhörig werden: John Holdren, Wissenschaftsberater von US-Präsident Barack Obama, in den vergangenen Wochen mehrmals gesagt, er unterstütze die Forschung am so genannten Geo-engineering. Unter diesem Begriff werden gigantische technische Konzepte zusammengefasst, die Erde abzukühlen, falls sich die globale Erwärmung nicht mittels Verringerung von CO2-Emissionen stoppen lässt.

Ob sich Holdrens persönliche Meinung im Weißen Haus durchsetzen wird, ist unklar. Klar ist aber auch: Eine Förderung des umstrittenen planetaren Großtechnik wäre ein Kurswechsel in der gegenwärtigen Klimapolitik der Obama-Administration. Zurzeit fließt nur wenig Geld in derartige Forschungsprojekte. Zudem gibt es kein koordiniertes Vorgehen, um Chancen und Risiken verschiedener Geo-engineering-Ansätze zu bewerten. Das liegt auch daran, dass die von vielen Experten bislang kategorisch abgelehnt werden, weil sie unvorhersehbare Nebenwirkungen auf das Erdsystem haben könnten. Allerdings passen Holdrens Aussagen zu den sich mehrenden Stimmen in den USA, dass man angesichts wirkungsloser politscher Maßnahmen und weiter steigender CO2-Emission vielleicht doch umdenken müsse.

Das Geo-engineering will im Wesentlichen zweierlei versuchen: Entweder CO2 aus der Erdatmosphäre entfernen oder die Erde abzuschirmen und einen Teil des Sonnenlichts in den Weltraum zurückzuwerfen, bevor es die Erdoberfläche erreicht und erwärmt. Ein Konzept, das seit Jahresbeginn anlässlich des – inzwischen gescheiterten – Lohafex-Experiments Wellen geschlagen hat, ist die Düngung der Ozeane mit Eisenpartikeln. Dadurch sollen mehr Algen entstehen, die verstärkt atmosphärisches Kohlendioxid binden. Chemie-Nobelpreisträger Paul Crutzen hat vorgeschlagen, Schwefelpartikel in die oberen Schichten der Erdatmosphäre zu schießen, wo sie einen Teil des einfallenden Sonnenlichts blocken sollen. Andere Vorschläge reichen von einfachen Maßnahmen – etwa Hausdächer weiß zu streichen, um Sonnenlicht zu reflektieren – bis zu sehr teuren und aufwändigen, zum Beispiel im Umlaufbahnen riesige Sonnensegel zu positionieren, die die Erde abschatten.

Damit solche Technologien wirksam sind, müssten sie in großem Stil eingesetzt werden. Bislang fehlen aber experimentelle Daten und Computermodelle, um die weltweiten Auswirkungen auf Wetter und Ökosysteme abzuschätzen. Hinzu kommt, dass die Wissenschaft erst sehr grob versteht, wie natürliche Systeme CO2 aufnehmen oder abgeben. Etwa die Hälfte des CO2, das die Verbrennung von Kohle und Öl oder andere menschliche Aktivitäten freisetzen, wird von Pflanzen geschluckt. Im Detail kennt man die Mechanismen allerdings noch nicht.

Selbst Verfechter des Geo-engineering räumen ein, dass ohne exaktes Wissen über solche Zusammenhänge die Ergebnisse solcher Großeingriffe nicht abzusehen seien. John Latham vom National Center for Atmospheric Research in Boulder im US-Bundesstaat Colorado plädiert deshalb dafür, die Erforschung der möglichen Folgen auszuweiten. Latham selbst hat vorgeschlagen, von windgetriebenen Schiffen aus Nebel aus Meerwasser zu versprühen. Der soll die Reflexion niedriger Wolkenschichten verstärken – und so eine Abschattung der Erde bewirken. Er schließt aber nicht aus, dass sich dadurch Niederschlagsmuster ändern und manchenorts zu Dürren führen könnten.

Um das zu untersuchen, seien großflächige Experimente und bessere Computermodelle nötig, sagt Latham. Wenn sich die unerwünschten Konsequenzen bestätigen, „sollten wir das Konzept fallenlassen, es sei denn, wir finden noch einen Ausweg.“ Bis jetzt sind derartige Tests nicht möglich gewesen. „Das Problem ist“, sagt Latham, „dass es dafür, von ein, zwei Ausnahmen abgesehen, keine Fördergelder gab.“

David Victor, der im Programm für Energie und Nachhaltige Entwicklung der Stanford University arbeitet, formuliert es spitzer: „Trotz jahrelanger Spekulationen sind die wissenschaftlich begutachteten Ergebnisse der Geo-engineering-Forschung erstaunlich dünn“, schrieb er kürzlich in Foreign Affairs. „Die Geo-engineering-Gemeinde würde eigentlich in einen einzigen Seminarraum passen, und die gesamte Literatur zum Thema könnte man auf einem Transatlantikflug lesen.“

Im Vergleich zu den Forschungsgeldern für Klimaschutz, die in Obamas Konjunkturpaket vorgesehen sind – allein 3,4 Milliarden Dollar für die CO2-Sequestrierung im Untergrund – , war die Förderung des Geo-engineering bislang gering. Für die Forschung an Ozeandüngung mittels Eisenpartikeln etwa ließ das US-Energieministerium zwischen 1998 und 2005 nur 25 Millionen Dollar springen. Dann stellte das Ministerium die Förderung ein: nur „ein sehr kleiner Teil“ des CO2, das von dem gedüngten Phytoplankton geschluckt wurde, sei auch als Biomasse auf den Meeresgrund gesunken, hieß es als Begründung. Ursprünglich hatte man gehofft, abgestorbene Algen würden dort in großen Mengen CO2 binden.

Ein paar Millionen mehr flossen in andere Projekte, etwa mittels Rutenhirse und Pappeln CO2 ins Erdreich zu transportieren. Davon verspricht man sich, die natürlichen CO2-Senken um einige Gigatonnen zu vergrößern (in der Erdatmosphäre befinden sich etwa 550 Gigatonnen CO2, davon 8,4 aus der Verbrennung fossiler Rohstoffe). Auch eine mögliche CO2-Absorption durch Gestein wurde untersucht. Wirklich koordiniert war die Forschung daran aber nicht.

Noch 2006 schrieb John Holdren: „Die Ansätze zum Geo-engineering sind bislang von einer unglücklichen Kombination aus hohen Kosten, geringer Wirkung und einer hohen Wahrscheinlichkeit ernster Nebenwirkungen geprägt.“ Diese Einschätzung hat er zuletzt noch einmal bestätigt.

Und doch ist Holdren offensichtlich der Meinung, der Geo-engineering-Forschung eine neue Chance zu geben. „Der Klimawandel schreitet rascher voran, als irgendjemand vorhersagen konnte“, sagte Holdren kürzlich auf einem MIT-Forum. „Bevor wir völlig verzweifeln, sollten wir uns auf das Geo-engineering einlassen, um Kühleffekte zu erzielen. Vielleicht könnten wir dann Treibhausgase mit technischen Mitteln direkt aus der Atmosphäre holen.“

Quelle:

Kevin Bullis

Posted via web from Superglide's Personal Blog ...

Plagiatsvorwurf: Facebook verklagt StudiVZ ...


Der deutsche Ableger des sozialen Internetnetzwerks Facebook hat seinen Konkurrenten StudiVZ vor dem Landgericht Köln verklagt. Vorwurf: StudiVZ sei ein Plagiat des amerikanischen Facebook-Originals.

Logos von Facebook und StudiVZ

StudiVZ habe mit seinem Logo, Funktionen und seinem Service geistiges Eigentum von Facebook kopiert. Zudem soll StudiVZ illegal auf Facebook-Computersysteme Zugriff gehabt und sich Daten, darunter den Facebook-Quellcode, verschafft haben. Facebook hat StudiVZ deshalb auf Unterlassung verklagt. Ein Sprecher von StudiVZ bezeichnete die Vorwürfe als haltlos.

Der Vorsitzende der Kölner Wettbewerbskammer, Vorsitzender Richter Heinz Georg Schwitanski, schlug vor, die Prozessbeteiligen sollten sich nach Möglichkeit außergerichtlich auf die Beauftragung eines Gutachters einigen. Dieser solle durch einen Vergleich der Quellcodes der Kontrahenten feststellen, ob und was kopiert worden ist. Kommt es zu keiner Einigung, soll Mitte Juni eine Entscheidung des Gerichts gefällt werden.

StudiVZ, das als Marktführer in Deutschland gilt, war im Oktober 2005 gegründet und Anfang 2007 für über 50 Millionen Euro von der Verlagsgruppe Holtzbrinck übernommen worden worden. Facebook hat StudiVZ bereits vor einem Gericht in Kalifornien verklagt. (dpa/rs)

Posted via web from Superglide's Personal Blog ...

NEU: Videofähiges E-Paper ...


Forscher an der University of Cincinnati im amerikanischen Bundesstaat Ohio haben eine neue Displaytechnik entwickelt, die elektronisches Papier deutlich besser ablesbar machen soll. Konventionelle E-Paper-Verfahren liefern einen zu geringen Kontrast und könnten außerdem heller sein. Das neue Verfahren, das von Jason Heikenfeld, Professor für Elektro- und Computertechnik an der Hochschule, federführend entwickelt wurde, soll nun die Brillanz von echtem Papier erreichen. "Wir können bald eine Technik demonstrieren, die bei Helligkeit und Farbdarstellung einen ähnlichen Buntheitsgrad hat wie bedrucktes Papier", so der Forscher.

Laut der in "Nature Photonics" veröffentlichten Arbeit können Bildpunkte mit dem Ansatz außerdem innerhalb von einer Millisekunde von schwarz nach Weiß umgeschaltet werden – schneller als die meisten LCD-Bildschirme. Das wäre für Video ausreichend, während die reguläre E-Paper-Technik höchstens einfache Animationen zulässt.

Heikenfeld und seine Kollegen haben einen Schwarz-Weiß-Prototypen mit einer steifen Oberfläche geschaffen, die 55 Prozent des Umgebungslichtes reflektiert – deutlich mehr als aktuelles elektronisches Papier, das bereits auf dem Markt befindlich ist. Reguläres weißes Papier reflektiert zu 85 Prozent, schlägt Heikenfelds Ansatz in Sachen Helligkeit also noch. Der glaubt jedoch, dass er bald mit seiner Technik flexible Vollfarb-Displays aus Kunststoff herstellen kann, die 60 Prozent erzielen. Mit teureren Ausgangsmaterialien und verbesserten Produktionsprozessen seien gar weißem Papier ähnliche Helligkeitswerte erzielbar.

Die University of Cincinnati-Forscher wollen erste Produkte demnächst durch das Start-up Gamma Dynamics herstellen lassen. Kommerzielle Partner sind bereits gefunden: Polymer Vision aus dem niederländischen Eindhoven, wo man an flexiblen elektronischen Lesegeräten arbeitet, sowie Sun Chemical aus Cincinnati, wo die Pigmente herkommen sollen. "Diese Technik hat das Potenzial, alle bisherigen Systeme aus dem Bereich des elektronischen Papiers zu schlagen. Sie kombiniert einen extrem hohen Reflexionsgrad mit sehr schnellen, für Video geeigneten Schaltgeschwindigkeiten. Außerdem wären die entsprechenden Displays sehr dünn", glaubt Polymer Vision-Technologiechef Edzer Huitema.

Das neue Design bietet ähnliche Vorteile gegenüber gewöhnlichen LC-Displays, wie man sie bereits von E-Paper-Geräten wie Sony Reader oder Amazon Kindle kennt. Die auf der Technik des Herstellers E Ink basierenden Modelle reflektieren Licht anstatt es zu emittieren, so dass sie sich leichter in hellem Sonnenlicht ablesen lassen und insgesamt deutlich stromsparender arbeiten. Die Helligkeit liegt allerdings nur bei 35 bis 40 Prozent, was bedeutet, dass der Kontrast schlechter ist als bei bedrucktem Papier. "Wenig Energieverbrauch ist toll, aber es muss auch gut aussehen, wenn man mit LCDs konkurrieren will", meint Heikenfeld.

Für ihre Bildpunkte benutzen die Forscher deshalb Aluminiumschichten, die Licht und rabenschwarze Tinte für satte Farbtiefen reflektieren. Dazu wird eine Polymerschicht mit Tintenreservoirs versehen und ein Alufilm aufgetragen. Darüber kommt dann eine transparente Elektrodenschicht aus Indiumzinnoxid (ITO). Eine an das Aluminium angelegte Spannung und das ITO ziehen die Tinte dann aus ihren Reservoirs und verteilen sie über den gesamten Bildschirmbereich.

Die einzelnen Punkte sind bis zu 100 Mikrometer breit, so dass sich Auflösungen von rund 300 dpi erzielen lassen. Das ist höher als bei vielen anderen elektronischen Lesegeräten auf dem Markt, sagt Heikenfeld. Würde man nun auch noch rote, grüne und blaue Farbfilter auf jeden Pixel setzen, würden sich Farbbildschirme bauen lassen.

Noch ist völlig unklar, ob sich die Technik der University of Cincinnati-Forscher durchsetzen kann. Viele andere E-Paper-Technologien werden derzeit in Konzernlabors, bei Start-ups und an Universitäten entwickelt. So bastelt der Mobilfunkausrüster Qualcomm an MEMS-basierten Bildpunkten; erste Komponenten werden bereits verbaut. Microsoft Research arbeitet unterdessen an Teleskop-Bildpunkten, die mit Hilfe von Spiegeln Licht reflektieren oder blockieren. Fujitsu baut einen E-Reader, der die stromsparende, LCD-ähnliche Technik des US-Unternehmens Kent Display verwendet. Und dann wäre da noch Opalux, ein Spinoff der University of Toronto, das mit Hilfe besonders brillanter photonischer Kristalle Farbbildschirme bauen möchte.

Quelle:

Prachi Patel

Posted via web from Superglide's Personal Blog ...

Neue Bluetooth-Kopfhörer von Sony ...


Sony bringt mit dem „DR-BT100CX“ und dem „DR-BT101“ zwei neue Kopfhörer in den Handel, die dank Bluetooth-Funktechnologie die Musik kabellos ins Ohr transportieren.

Sony DR-BT101 - Bluetooth-Kopfhörer

Sony DR-BT101

Der Kunde hat die Wahl zwischen einem leichten In-Ear Hörer (DR-BT100CX), der auf der bekannten „EX“-Serie basiert und mit einer Akkuladung bis zu acht Stunden Musik liefert oder einem Bügel-Kopfhörer (DR-BT101) mit 30-Millimeter-Membran, der bis zu zwölf Stunden spielt. Sobald die Verbindung zwischen Kopfhörer und Mobiltelefon oder einem anderen Bluetooth-unterstützenden Audiogerät hergestellt ist, wird die Musik kabellos auf die Kopfhörer übertragen. Die Sony-Kopfhörer können aber noch mehr: In Verbindung mit einem Mobiltelefon nutzen Sie sie als Headset beziehungsweise als Freisprecheinrichtung. Dank einer Echo- und Nebengeräuschunterdrückung sollen störende Außengeräusche während der Freisprechfunktion fast komplett ausgeblendet werden. Sony verspricht eine exzellente Sprachqualität. Beide Modelle arbeiten mit dem Bluetooth-2.1-Standard, der Empfangsstörungen auf ein Minimum reduziert.

Sony DR-BT100CX - Bluetooth-In-Ear-Kopfhörer

Sony DR-BT100CX

Die Bedienung erfolgt einfach per Tastendruck: Verändern Sie die Lautstärke oder nutzen Sie die Titelsprungfunktion direkt am Kopfhörer. Auch die Hauptfunktionen eines Handys lassen sich darüber steuern. Eingehende Anrufe nehmen Sie ebenfalls komfortabel per Tastendruck an. Beide Modelle unterstützen die Bluetooth-Profile A2DP, AVRCP, HFP und HSP. Die Reichweite beträgt zehn Meter. Die Sony-Kopfhörer sind ab Mai 2009 zum Preis von jeweils 70 Euro im Handel erhältlich. (gh)

Posted via web from Superglide's Personal Blog ...

Amazon kauft die E-Book-Software Stanza ...


Der Online-Einzelhändler Amazon weitet sein Geschäft mit elektronischen Büchern aus und übernimmt den Hersteller der erfolgreichen E-Book-Lesesoftware „Stanza“. Das Gratis-Programm ermöglicht den Download und das Lesen von Büchern auf das „iPhone“ sowie auf Windows- und Apple-Rechnern.

Stanza für das iPhone

E-Book-Reader Stanza für das iPhone

Stanza kommt von dem erst 2008 gegründeten Unternehmen Lexcycle. An der Anwendung seien auch nach der Übernahme keine Änderungen geplant, teilte Lexcycle in einem Blog-Eintrag im Internet mit. Die Anwender sollen auch weiterhin damit elektronische Bücher verschiedener Anbieter kaufen, laden und lesen können. Finanzielle Details nannten die Unternehmen bislang nicht.

Amazon selber verkauft in den USA bereits sehr erfolgreich einen eigenen E-Book-Reader namens „Kindle“ und stellte vor Kurzem mit „Kindle 2“ einen verbesserten Nachfolger vor. In Deutschland sind beide Geräte derzeit noch nicht erhältlich. Für den Kindle bietet Amazon derzeit rund 270.000 Bücher zum Kauf an. Nachteil: Der Reader kann nur ein bestimmtes Dateiformat verarbeiten. Stanza dagegen kommt mit vielen offenen E-Book-Formaten, darunter das weit verbreitete Format „ePub“, zurecht. (dpa/rs)

Posted via web from Superglide's Personal Blog ...

Acer-Value-Serie: Neue Full-HD-Bildschirme im 16:9-Format ...


Acer erweitert seine „Value“-(V3)-Serie um fünf neue Breitbildschirme mit einem Seitenverhältnis von 16:9.

Acer V243Hbd - Breitbildschirm Acer-Value-Serie

Acer V243Hbd

Die neuen Monitore im schlichten schwarzen Design sind mit Bildschirmdiagonalen von 20, 21,5, 23, 23,6 und 24 Zoll erhältlich und bieten HD-Auflösungen mit bis zu 1920x1080 Bildpunkten. Mit einer Reaktionszeit von fünf Millisekunden eignen sich die Bildschirme nicht nur für Multimedia-Anwendungen sondern auch zum Spielen. Das Top-Modell der Serie, der Acer „V243Hbd“, wartet sogar mit einer noch niedrigeren Reaktionszeit von nur zwei Millisekunden auf. Mit hohen Kontrastverhältnissen von bis zu 40.000:1 und einer Bildhelligkeit von 300 Candela/Quadratmeter (Herstellerangaben) sollen die Modelle der Value-Serie stets gestochen scharfe Bilder mit natürlichen, realistischen Farben liefern.

Alle Geräte sind mit einer D-Sub-(VGA)-Schnittstelle ausgestattet. Einige Modelle verfügen zusätzlich über einen DVI-Anschluss mit HDCP-Unterstützung, der die Darstellung kopiergeschützter HD-Inhalte, etwa Blu-ray-Filme, erlaubt. Die Steuertasten der Displays wurden dezent in den Rahmen integriert und sollen eine einfache Bedienung ermöglichen. Alle Modelle verfügen über eine ergonomische Neigungsfunktion. Die Acer-Bildschirme der Value-Serie sind ab sofort zu Preisen ab 134 Euro (20-Zoll-Modell) im Handel erhältlich. Das 24-Zoll-Flaggschiff kostet 279 Euro. (gh)

Posted via web from Superglide's Personal Blog ...

Dienstag, 28. April 2009

Software-Tipp: "TeamViewer" ... Remote-Desktop für PC und Mac ...


TeamViewer - Remote-Desktop-Programm

Screenshot aus TeamViewer

Mit dem Remote-Desktop-Programm „TeamViewer“ greifen Sie übers Internet auf andere Computer zu. Die Einsatzmöglichkeiten sind vielfältig: Rufen Sie beispielsweise von zu Hause aus Daten auf Ihrem Büro-PC ab oder helfen Sie einem Freund bei einem Problem. Es ist so, als ob Sie direkt vor dem anderen Rechner sitzen. Alle Aktionen, die Sie durchführen, sind auf dem per Internet verbundenen Rechner sichtbar – praktisch, um jemandem einen bestimmten Vorgang vorzuführen. TeamViewer ist keine Gratis-Software, für private Zwecke ist die Nutzung jedoch kostenlos. Die Handhabung ist kinderleicht. Eine Version für Mac-Computer ist ebenfalls verfügbar. (gh)

» Download: TeamViewer kostenlos herunterladen
» Download: TeamViewer Mac-Version kostenlos herunterladen

Posted via web from Superglide's Personal Blog ...

Das Preisschrauben-Oligopol der mobilen Internetprovider ...


Neulich bekam ich von meinem Mobilfunkbetreiber ein interessantes Angebot: Mit einer so genannten "Top-Flat" solle es mir künftig für schlappe 2 Euro im Monat möglich sein, auf insgesamt drei verschiedenen Websites, die ich mir aus einem vom Provider gestellten Katalog auswählen dürfte, "kostenlos mobil zu surfen". Reiche mir das nicht, biete der per UMTS und GPRS vermittelte Service auch Zugriff auf "alle weiteren Internetseiten". Kostenpunkt: "Günstige 1 Euro pro Megabyte." Das Angebot sei "perfekt für Einsteiger", so der Netzbesitzer weiter.

Natürlich habe ich den Deal nicht angenommen, ist er preislich doch völlig wahnwitzig - man stelle sich vor, darüber Musik zu laden, die neben 99 Cent für iTunes dann mal eben nochmals 4 Euro "Transportkosten" mit sich bringen würde. Außerdem würde es mir wenig Spaß bereiten, dass mir mein Netzbetreiber künftig vorschreibt, was ich im Internet anzusehen habe ("Ihr Katalog mit den besten Inhalten").

Das Üble daran: Das Angebot der Marke Gewinnmarge 90 Prozent ist durchaus beispielgebend für andere aktuelle Online-Offerten von Mobilfunkern. Und es ist ein prima Exempel dafür, was passiert, wenn man Oligopole zulässt, wie sie im weltweiten Handynetzmarkt heutzutage noch immer Gang und Gäbe sind - ein paar Anbieter plus Weiterverkäufer teilen sich ein Business und rücken preislich kaum voneinander ab, weil sie einfach nicht müssen. Das führt dann dazu, dass man vor kurzem noch mehrere Euro pro Minute blechen musste, wenn man mal eben in einem anderen EU-Land unterwegs war.

Nicht, dass die Bemühungen der Brüssler Informationskommissarin Viviane Reding zu kritisieren wären: Die Frau arbeitet durchaus im Verbrauchersinn. Doch ihre Forderungen greifen viel zu kurz: Sie glaubt beispielsweise, dass 50 Cent pro Megabyte beim Roaming gerecht seien. Dass selbst das im Vergleich zum Festnetz-Internet ein absolut verrückter Preis ist, traut sich niemand zu sagen, weil es offenlegen würde, wie sehr die Regulierung in Sachen mobiles Internet heutzutage noch daneben greift.

Man kann froh sein, wenn man Deals wie den zweier großer D-Netz-Betreiber erhält, die für 5 Euro am Tag Pauschaltarife mit einem Gigabyte anbieten, sich aber trotzdem erdreisten, diese als "ohne Volumenbegrenzung" zu bezeichnen, obwohl sie nach dem erwähnten Gigabyte ins Kriechtempo umgeschaltet werden.

Im Mobilfunk erlebt man das, was in Amerika derzeit für das Internet über TV-Kabel debattiert wird: Die Rückkehr zum so genannten "metered net", der Abkehr von der Flatrate. Time Warner Cable will so beispielsweise Tarife mit 20 Gigabyte im Monat durchdrücken, Wenn die Nutzer aber erst damit anfangen müssen, Datenpakete zu zählen, werden sie innovative Multimediaangebote erst gar nicht mehr nutzen, dann bleibt nur die gute alte Glotze. (Vielleicht wollen das Kabel-Internet-Anbieter auch so, schließlich verdienen sie mit teuren Pay-TV-Paketen viel Geld.)

So sehr der Erfolg von iPhone & Co. auch Anderes verheißen mag: So lange die Mobilfunk-Oligopole die Hand an der Preisschraube haben, fährt das mobile Internet weiter mit angezogener Handbremse. Unsere Kinder werden über solche Tarife und Streits nur lachen können.

Quelle:

Ben Schwan

Posted via web from Superglide's Personal Blog ...

Streit um Street View: Google versucht Datenschützer zu besänftigen ...


Mit Zugeständnissen an den Datenschutz will Google den Weg für seine digitale Straßenansicht „Street View“ freimachen. Nutzer aus Deutschland sollen vor der Veröffentlichung der Bilder Einspruch einlegen können. Datenschützer signalisierten Zustimmung.

Times  Square, New York

Google fotografiert mit Spezialkamera Straßenzüge auf der ganzen Welt (im Bild der Times Square in New York).

Street View ist ein Teil des Kartendienstes „Google Maps“, über den Nutzer Panoramabilder von Straßenzügen ansehen können. Die Funktion ist in Deutschland noch nicht verfügbar, soll aber nach der Einigung „zeitnah“ starten.

Deutsche Datenschützer sehen Street View kritisch, da „persönliche Lebensumstände“ ausgeleuchtet würden. Sie forderten bis dato, dass Google Bürgern bereits vor der Aufnahme von Bildern eine Chance zum Widerspruch einräumen müsse. Nun geben sich die Datenschützer der Bundesländer mit einem Veto vor einer Veröffentlichung zufrieden. „Ich habe den Eindruck, dass Google auf einem guten Weg ist“, sagte Helga Naujok von der zuständigen Hamburger Datenschutzbehörde der Deutschen Presse-Agentur dpa. Vor einer endgültigen Beurteilung müsse man die technische Ausgestaltung abwarten. „Wir sind noch im Gespräch.“

Wie der Einspruch im Detail erfolgen soll, sagte Google noch nicht. Man werde spezielle „Datenschutz-Tools“ entwickeln, sagte der Datenschutzbeauftragte des Unternehmens, Peter Fleischer, laut „Focus“. Die Gesichter zufällig fotografierter Personen werden nach Angaben von Google automatisch unkenntlich gemacht, ebenso Kennzeichen von Autos. Nutzer können das Unternehmen außerdem über ein Online-Formular zur Löschung von Bildern auffordern. Der Anteil solcher Anfragen liegt laut Google-Sprecher Stefan Keuchel in den Ländern, von denen Street-View-Aufnahmen bereits verfügbar sind, im Promille-Bereich.

Google lässt Autos mit speziellen Kameras auf dem Dach durch die Städte fahren, um die Straßen zu fotografieren. Die einzelnen Bilder werden mit Informationen über den Standort versehen und anschließend zu einer Gesamtansicht zusammengestellt. In Deutschland hat sich in mehreren Orten Widerstand gegen die flächendeckenden Aufnahmen geregt. (dpa/rs)

Posted via web from Superglide's Personal Blog ...

Montag, 27. April 2009

Software-Tipp: VideoCacheView ... Übersicht bereits angesehener Videos in Ihrem Cache ...


VideoCacheView - Gratis-Tool zum speichern von Flash-Videos

Screenshot aus VideoCacheView

Die Gratis-Software „VideoCacheView“ macht Videos, die sich in Ihrem Internetcache befinden, sichtbar. Die Anwendung listet alle von Ihnen angesehenen Videos übersichtlich auf, ganz gleich auf welchem Videoportal sie angesehen wurden. Per Mausklick spielen Sie die Filme erneut ab oder speichern sie permanent in einem beliebigen Verzeichnis auf Ihrer HDD. (gh)

» Download: VideoCacheView kostenlos herunterladen

Posted via web from Superglide's Personal Blog ...

Software-Tipp: DiskDigger ... Tool zur Rettung versehentlich gelöschter Dateien ...


DiskDigger - kostenloses Datenrettungsprogramm

Screenshot aus DiskDigger

Die Gratis-Software „DiskDigger“ durchsucht Festplatten und externe Datenträger wie z.B. USB-Sticks nach versehentlich gelöschten Daten und stellt sie wieder her. Die Anwendung findet verlorene Dateien aller gängigen Musik-, Video- und Dokumentenformate und listet sie übersichtlich auf. Per Mausklick lassen sich die gewünschten Daten anschließend wiederherstellen. (gh)

» Download: DiskDigger kostenlos herunterladen

Posted via web from Superglide's Personal Blog ...

Google bald auf Rezept ... ?


Anbieter elektronischer Gesundheitsakten, darunter auch Google und Microsoft, arbeiten in den USA mit einer wachsenden Anzahl von Apotheken, Gesundheitsversorgern und Internet-Diensten zusammen, um Patienten den Online-Zugriff auf ihre Krankengeschichte zu ermöglichen und den allgemeinen Informationsfluss medizinischer Daten zu verbessern.

Die Bemühungen kommen genau zur rechten Zeit: US-Präsident Barack Obama sieht in seinem Konjunkturpaket insgesamt 19 Milliarden Dollar für die Digitalisierung des amerikanischen Gesundheitswesens vor. Doch so stark gehypt das Thema auch derzeit zu werden scheint: Noch ist unklar, ob und wenn ja welche positiven Auswirkungen die Bemühungen auf die Patientenversorgung wirklich haben werden.

Aktuell müssen Nutzer von Google Health oder Microsoft HealthVault ihre persönlichen Daten normalerweise noch von Hand eingeben – übertragen vom Papier füllt man Listen mit aktuellen Krankheitsbildern, Medikationen, Testergebnissen und bereits erfolgten Behandlungen aus. Doch das ändert sich nun. Seit vergangenem Sommer wurde mein Versicherer Blue Cross Blue Shield der erste Anbieter in den USA, der offiziell mit Google kooperiert. Seither kann man seine Daten automatisch hochladen lassen. Eine Einschränkung gibt es jedoch: Nur Pilotpartner wie das Beth Israel Deaconess Medical Center in Boston, die Cleveland Clinic in Ohio und ein Netzwerk aus Ärzten im Bundesstaat Washington machen in der Praxis auch wirklich regelmäßig mit.

Google Health und Microsoft HealthVault kosten nichts. Beide Anbieter kooperieren mit bekannten US-Hospitälern – Google wie erwähnt mit Beth Israel Deaconness und Cleveland, Microsoft mit der Mayo Clinic. Ziel dabei ist es, die Angebote möglichst genau auf die Patientenbedürfnisse abzustimmen. Hinzu kommen Partnerschaften mit einer Anzahl von Apotheken, so dass Nutzer ihre Rezeptdaten hochladen und beispielsweise nach Nebenwirkungen oder kostengünstigeren Alternativen suchen können.

Im Fall von Versicherten von Blue Cross Blue Shield setzt Google Health Abrechnungscodes zum Auffinden von Krankheitsbildern ein – im Gegensatz zu anderen medizinischen Daten liegen diese in den USA bereits in digitaler Form vor und lassen sich so wesentlich leichter importieren. Mit den Codes ergeben sich in der Praxis allerdings allerlei verwirrende Abbilder des Gesundheitszustandes eines Patienten. Weil jeder Gesundheitsversorger, den ich besuche, andere Codes verwendet, habe ich als Mensch mit chronischen Kreuzproblemen laut meinen Google Health-Daten sowohl Rückenschmerzen als auch Muskelbeschwerden, Entzündungen und nicht-allopathische Läsionen in Teilen meines Rückgrats. (Letzteres scheint ein spezieller Abrechnungscode meines Chiropraktikers zu sein.) All das ergibt nicht gerade ein verständliches Bild meines aktuellen Zustandes und der Behandlungsformen, die ich bislang erhielt. Aber vielleicht würde das ein ausgebildeter Arzt ja ganz anders sehen.

Die vom Versicherer importierten Daten enthalten außerdem weder Testergebnisse noch generelle Gesundheitsaussagen wie Gewicht, Cholesterin oder Fettwerte. Wenn ein Patient eine chronische Krankheit wie Diabetes oder hohen Blutdruck hat, ist es wichtig, dass er diese Angaben in einer Zeitleiste betrachten kann – sie ist eine gute Motivation, weniger zu essen oder aufs Cholesterin zu achten. Google Health besitzt außerdem bislang noch keine Möglichkeit, mit im Patientenbesitz befindlichen medizinischen Geräten zu interagieren. Vorstellbar wäre beispielsweise, dass Blutdruckmesser oder Zuckermonitore ihre Daten direkt hochladen. Angekündigt ist von Google immerhin eine Partnerschaft mit IBM auf diesem Gebiet.

Bislang basieren große Teile der Funktionalität von Google Health auf Rezepten. Nutzer können Informationen verschiedener Apotheken hochladen und das Programm warnt Patienten dann vor möglichen Gegenanzeigen oder Komplikationen bei der kombinierten Einnahme. "Es ist wichtig, das Menschen ihre Rezepte leicht verwalten können, weil man ihnen so zeigen kann, warum sie konkret Medikamente nehmen und welche Gefahren möglicherweise von ihnen ausgehen, wenn sie falsch kombiniert werden", sagt Roni Zeiger, Produktmanager bei Google, der selbst Arzt ist. Er schätzt, dass inzwischen potenziell mehr als 100 Millionen Nutzer Kopien ihrer Rezeptdaten bei Google Health hochladen können – zuletzt konnte man einen Vertrag mit der Apothekenkette CVS schließen.

Meine Online-Apotheke hat allerdings noch keine Partnerschaft mit dem Online-Riesen aufgebaut. Deshalb musste ich meine aktuellen Medikamente von Hand eingeben. Ich hatte dann die Möglichkeit, mit einer Anzahl von Online-Werkzeugen nach billigeren Alternativen zu suchen, einen Einnahmeplan zu erstellen oder mich informieren zu lassen, sobald neue Medikamente auf dem Markt sind oder ein Hersteller einen Rückruf durchführt. Damit das funktioniert, muss man Google aber erlauben, auf die aktuellen Gesundheitsdaten zuzugreifen, was einigen Teilnehmern sicher Bauchschmerzen bereitet. (Mit wenigen Mausklicks lässt sich dieses Recht aber widerrufen.)

Bislang kommt es mir so vor, als hätten die bei Google Health enthaltenen Dienste nur einen eingeschränkten Wert. Als ich eine der Funktionen nutzte, um nach einem billigeren Asthmamittel zu suchen, wurde mir unter anderem ein Medikament angeboten, das Ärzte seit Jahren kaum mehr verschreiben, weil es unangenehme Nebenwirkungen hat. Es wurde mir dabei nicht angezeigt, welche Ähnlichkeiten mit bestehenden Medikationen bestehen oder ob es sich um die gleiche Medikamentenklasse handelt. Auch der Schweregrad der potenziellen Nebenwirkungen fehlte.

Eine der neuesten Funktionen von Google Health ist die Möglichkeit, die elektronische Gesundheitsakte online mit anderen zu teilen. "Dieses Feature ist besonders hilfreich, weil es einem Patienten erlaubt, seine Krankengeschichte mit Gesundheitsversorgern und der Familie besser abzugleichen", sagt John Halamka, IT-Chef beim Google-Partner Beth Israel Deaconess Medical Center. Bislang ist das Angebot des Online-Riesen für mich selbst aber ehrlich gesagt noch deutlich eingeschränkter als die elektronische Gesundheitsakte, die mein Hausarzt bereits seit längerem anbietet.

Quelle:

Emily Singer

Posted via web from Superglide's Personal Blog ...

Freitag, 24. April 2009

Bilder von der gemeinsamen Motorradausfahrt am Ostermontag ...


unsere Bilder von der gemeinsamen Motorradausfahrt am Ostermontag ...

http://bit.ly/a1b5N

Posted via web from Superglide's Personal Blog ...

Aktualisierungsdatei für Outlook 2007 zum beschleunigten Starten des Programms ...


Ich arbeite seit zwei Jahren mit Outlook. Über die Zeit wurde das Programm immer langsamer: Es dauert Ewigkeiten, bis es startet und ich Mails empfangen kann. Wie krieg ich Outlook wieder flott?

Microsoft Outlook 2007

Outlook 2007 schneller machen: Löschen Sie überflüssige E-Mails und installieren Sie die Aktualisierungsdatei von Microsoft.

Aktualisierung einspielen
Von Microsoft gibt’s ein geheimes Update, das Outlook beschleunigt:

Laden Sie die Aktualisierungsdatei aus dem Internet. Nach Klicks auf Annehmen und auf das
Kästchen vor Microsoft Office Outlook 2007 tippen Sie die geforderten Daten ein und klicken
auf Hotfix anfordern. Sie erhalten eine E-Mail. Klicken Sie auf den darin enthaltenen Link,
und überspielen Sie die Datei auf die Arbeitsoberfläche.

» Microsoft-Aktualisierungsdatei für Outlook 2007

 

Posted via web from Superglide's Personal Blog ...

Video-on-Demand-Angebot von Amazon in den USA trumpft mit HDTV-Serien sowie -Filmen auf ...


In den USA können Kunden im Video-on-Demand (VoD)-Angebot des Online-Händlers Amazon nun auch zwischen 500 HDTV-Serien und -Spiefilmen aussuchen.

Wie Amazon mitteilt, sind dabei Warner Bros., Sony Pictures, Paramount Pictures, Metro-Goldwyne-Mayer Studios Inc., Universal Studios Home Entertainment und Showtime Networks bei den HDTV-Titeln vertreten.

 

Die Filme können auf einem Macintosh-Computer oder PC angesehen werden. Auch auf Fernsehern lassen sich die Filme anschauen. Dazu sind kompatible Geräte nötig, zu denen u.a. Festplatten-Receiver von TiVo gehören sowie Fernseher mit Internetanbindung wie von Sony oder Panasonic.

Zu den HDTV-Titeln gehören u.a. "Frost/Nixon", "Twilight", "Yes Man" und Serien wie "Californication", "The Tudors", "Smallville" und "Gossip Girl". Insgesamt verfügt die VoD-Videothek von Amazon derzeit über rund 40 000 Titel. Die Leihgebühr beträgt zwischen 3,99 und 4,99 US-Dollar.

Quelle:

http://www.digitalfernsehen.de

Posted via web from Superglide's Personal Blog ...

Kein grundsätzliches Verbot für Online-Videorekorder durch den Bundesgerichtshof ...


Save.TV Ltd., Anbieter des Online-Videorekorders unter www.save.tv, weist darauf hin, dass der Bundesgerichtshof (BGH) das Urteil des OLG Dresden gegen Save.TV Ltd. aufgehoben und an das Oberlandesgericht zurückverwiesen hat.

"Unter bestimmten Voraussetzungen bleiben Internet-Videorekorder nach dem BGH-Urteil erlaubt. Save.TV Ltd. kann und wird seinen Onlinevideorekorder Save.TV unverändert weiter betreiben. Die Revision gegen das von RTL angestrengte Urteil des OLG Dresden hatte somit Erfolg", heißt es in einer Pressemitteilung von Savt.TV Ltd.

Nach Ansicht von save.tv hat der BGH zwar festgestellt, dass durch Online-Videorekorder Urheberrechte verletzt werden können, gleichzeitig aber in Aussicht gestellt, unter welchen Umständen Online-Videoreokorder zulässig sind. So muss u.a. der Aufzeichnungsprozess vollständig automatisiert sein, so dass der Kunde als Hersteller der Aufzeichnung gelten muss.

Zudem seien Sende- und Urheberrecht nicht verletzt, wenn die Aufzeichnungen nicht an mehrere Kunden, sondern nur an den Hersteller der Kopie weitergegeben werden. Beide Bedingungen erfüllt der von save.tv angebotene Onlinevideorekorder nach Ansicht des Unternehmens.

Nachdem die offizielle Pressemeldung des BGH vom 22.04.2008 zu unterschiedlichen Interpretationen geführt hatte, zitiert die Frankfurter Allgemeine Zeitung den BGH-Richter Thomas Koch auf Anfrage damit, dass eine zulässige Variante verbleibe. Dazu müsse eine Sendung automatisch gespeichert werden und ausschließlich an einen Empfänger weitergeleitet werden. Inwieweit dies im Einzelfall zutrifft, muss nun das OLG Dresden klären, an das der Fall zurückverwiesen wurde.

"Save.TV ist in genau dieser Weise ausgestaltet und erfüllt beide Voraussetzungen. Aufnahmen werden jeweils individuell durch den Kunden nach deren Programmierung angelegt, automatisch gespeichert und ausschließlich an diesen weitergeleitet. Dies wurde auch in den Vorinstanzen ausführlich dargestellt und war tatbestandliche Grundlage des nun aufgehobenen Urteils des OLG Dresden. Insofern entspricht Save.TV den Vorgaben des BGH und wird daher auch in Zukunft seinen Dienst anbieten. Für die Kunden von Save.TV bedeutet dies, dass Sie auch in Zukunft auf Save.TV zählen können”, so Thomas Kutsch, Geschäftsführer der Save.TV Ltd.

Der Fernsehsender RTL hatte zuvor wegen möglicher Urheberrechtsverstößen eine Unterlassungsklage gegen Save.TV angestrengt. Das Verfahren (Az. I ZR 175/07) ist ein separates Verfahren, das auf Grund der inhaltlichen Nähe im Zusammenhang mit den Verfahren gegen andere Anbieter von Online-Videorekordern entschieden wurde.

Save.TV ist ein internetbasierter Videorekorder. Über einen Webbrowser oder ein HTML-fähiges Mobiltelefon können TV-Programme ausgewählt und die Aufnahme programmiert werden. Entscheidet sich ein Save.TV-Nutzer für eine bestimmte Sendung, wird diese in digitalisierter Fassung auf einem ausschließlich diesem Kunden individuell zugewiesenen Speicherplatz auf einem Server gespeichert.

Von dort kann nur dieser Anwender die von ihm aufgezeichnete Sendung zu einem Zeitpunkt seiner Wahl abrufen.

Quelle:

http://www.digitalfernsehen.de

Posted via web from Superglide's Personal Blog ...

Geo-Location-Verfahren ... u. a. Hacker-Tool zum Schüren der Angst vor lokalen Anschlägen ...


Hacker überlegen sich ständig neue Finten, um arglosen Internetnutzern ihre Schädlinge unterzujubeln. Der Wurm Waledac lockt seine Opfer mit Sensationsmeldungen – die neue Masche setzt auf die Angst vor Terroranschlägen.

What is My IP address?

Der Internetservice „What is my IP address?“ setzt das Geo-Location-Verfahren ein.

Hacker nutzen zur Verbreitung ihrer dramatischen Meldungen sogenannte Geo-Location-Verfahren. Die Ortungstechnik bestimmt den Aufenthaltsort eines PCs. Beim Besuch einer fingierten Seite wird mittels Geo-Location die Internetadresse (IP) eines Rechners erfasst und damit der Standort ermittelt. Anschließend wird die Seite automatisch angepasst und der Name der nächstgrößeren Stadt in die Meldung eingebaut. So erhalten werden die Meldungen dramatisiert.

Wie die Standortbestimmung funktioniert, testen Sie völlig gefahrlos auf der Webseite: What is my IP address?

» Internet: Geo-Location-Service

Posted via web from Superglide's Personal Blog ...