Ma partiamo dall'aspetto estetico. Il design ricorda molto quello di Desire Eye, forse il più famoso della serie e senza dubbio quello con la scheda tecnica più rilevante, ma più in generale riprende lo stile di tutto il capitolo Desire. La scocca è realizzata in plastica, di per sé non un materiale particolarmente pregiato, ma la finitura di cui è stato ornato questo Desire 626 restituisce una piacevole sensazione al tatto. La plastica appare infatti leggermente gommata, particolare che permette anche una presa ben salda e un discreto grip.Nella parte inferiore della cornice troviamo il connettore micro USB, mentre il jack da 3,5mm è ospitato esattamente nella parte opposta della scocca. Sul lato sinistro dello smartphone abbiamo il tasto di accensione e spegnimento oltre che blocco e sblocco dello schermo, insieme al bilanciere per il volume, entrambi in una posizione ben accessibile per il pollice della nostra mano destra o per l'indice della sinistra a seconda dell'impugnatura. Sul lato opposto troviamo invece lo sportello dentro cui abbiamo gli slot per l'inserimento della nanoSIM e della microSD.

Il fronte ospita il grande display, la fotocamera frontale, il led di notifica e quelli che sembrano due speaker ma di cui in realtà solo uno svolge tale funzione (quello in basso), mentre il secondo ospita solamente la capsula per le chiamate. Il posteriore è caratterizzato da una colorazione uniforme interrotta nel mezzo dal logo HTC e ospitante, nell'angolo in alto a sinistra, la fotocamera e il flash LED.Nonostante il mondo Leica sia tradizionalmente affine al bianco/nero, nessuno si aspettava il successo clamoroso che quel modello in effetti ebbe. A tre anni di distanza, ecco allora secondo modello che spera di ricalcarne le orme.La formula è esattamente la stessa. Come la Monochrom originale derivava dalla M9-P, la nuova Monochrom Typ 246 deriva dalle attuali M e M-P Typ 240, che nel frattempo hanno abbandonato il sensore CCD da 18 MPixel in favore di un nuovo sensore CMOS da 24 Mpixel, come sempre un 35mm privo di filtro ottico passa-basso. A livello tecnico, è questa la principale novità della nuova Monochrom - una novità non da poco, per inciso.

Anche elettronica interna e corpo macchina sono stati aggiornati ispirandosi alle Typ 240, il che favorirà una coerente esperienza d'uso per i fortunati possessori di Typ 240 e Monochrom Typ 246. Il prezzo ufficiale del corpo macchina è pari a 7.380 Euro.L'anno scorso parlavamo di Galaxy Tab S 10.5 sottolineandone tanti aspetti positivi. Il tablet ci è sembrato a tal punto convincente che lo abbiamo inserito nella prima posizione per quanto riguarda i dispositivi Android e secondo assoluto nella nostra graduatoria dei 10 migliori tablet e 2-in-1 del 2014. È trascorso circa un anno dal rilascio del dispositivo, e Samsung ha rinnovato l'offerta con una nuova generazione di tablet mantenendone le caratteristiche peculiari e aggiornando grossa parte della componentistica integrata.Samsung ci ha invitato al suo "District" in quel di Milano per avere un primo assaggio dei nuovi dispositivi, e testarli in maniera approfondita ma non definitiva. Abbiamo potuto valutare le qualità del display, eseguire qualche benchmark e giochicchiare con il dispositivo per farci una prima idea del prodotto, in attesa di un aggiornamento più esaustivo dove magari potremo misurare l'autonomia operativa e testare in maniera più approfondita la nuova piattaforma hardware integrata, ancora una volta basata su tecnologie Exynos proprietarie.

Per i nuovi Galaxy Tab S2, Samsung mantiene la scelta del display SuperAMOLED. Ma se con la prima iterazione dei tablet questo era sostanzialmente l'unico motivo per cui scegliere quel modello invece di una proposta alternativa, su Galaxy Tab S2 Samsung ha cercato di fornirne diversi, di motivi. Primo fra tutti, a detta della società, una fluidità delle animazioni superiore e più granitica, ma anche una maggiore reattività nell'esecuzione delle applicazioni anche in multi-window. Questa caratteristica viene inoltre ulteriormente migliorata, con un accesso semplificato e una modalità aggiuntiva.Durante la nostra prova abbiamo potuto verificare effettivamente una fluidità esemplare in tutti i frangenti, anche vessandolo con molte applicazioni in memoria e utilizzando senza pietà le funzionalità di multitasking in finestre. Il merito è della nuova piattaforma hardware, caratterizzata da un processore Samsung Exynos 5433 octa-core a 64-bit in configurazione big.LITTLE: due i processori integrati, entrambi quad-core, l'uno con unità di calcolo Cortex-A57, l'altro con Cortex-A53 per il massimo risparmio energetico.

La CPU è abbinata ad una GPU ARM Mali-T760 MP6, mentre la memoria di sistema massima è di 3GB. In Italia troviamo solo la versione da 32GB LTE per entrambi i modelli, da 8 e 9,7" entrambi con aspect-ratio di 4:3 e risoluzione massima supportata da 2048x1536 pixel. Oltre alla piattaforma hardware, riteniamo che l'installazione nativa di Android 5 Lollipop giovi tantissimo nel consegnare un'esperienza e una fluidità migliori durante l'uso delle funzionalità più utilizzate quotidianamente.
I nuovi Galaxy Tab S2 migliorano anche nei materiali utilizzati, anche se le novità sono a tratti opinabili. Bella la nuova cornice laterale in metallo, meno bella la scocca posteriore in policarbonato. Samsung ha abbandonato la finitura in finta pelle traforata dei due predecessori, forse non proprio gradevole esteticamente ma in grado di consegnare una sensazione tattile più piacevole durante l'uso del tablet. Galaxy Tab S2 è più scivoloso, anche se in assoluto non lo è troppo, ma la plastica dà un'impressione più "cheap" rispetto alla finta pelle di Galaxy Tab S.

I nuovi materiali hanno comunque permesso a Samsung di ottenere valori record per quanto riguarda lo spessore dei due tablet: il loro profilo è infatti di soli 5,6mm, ed anche il peso è decisamente contenuto. Soprattutto il modello da 8 pollici è tremendamente semplice da mantenere in mano anche per lunghi periodi senza affaticarsi, rendendo ad esempio la lettura di libri o riviste possibili senza troppi compromessi. Fra le novità non possiamo non citare il nuovo sensore biometrico per la scansione delle impronte digitali.Ma torniamo al display: Samsung ha scelto di abbandonare l'aspect-ratio di 16:10 dei primi modelli della famiglia per un più "tradizionale" di 4:3, seguendo l'approccio di Apple nella categoria. Avevo personalmente molto apprezzato il rapporto prospettico del display di Galaxy Tab S 10.5 soprattutto per via della sua ottima qualità. I 16:10 erano inoltre un buon compromesso fra visualizzazione di contenuti multimediali (quali film, video musicali), navigazione e produttività, ed erano una caratteristica che differenziava il prodotto da quelli della Mela.

Pare però che Samsung sia tornata sui propri passi per via di alcune analisi di mercato che hanno portato come risultato una certa preferenza da parte dell'utenza per il form factor di iPad. Ragioni di marketing, insomma. I 4:3 danno la possibilità di vedere con maggiore completezza le pagine web (soprattutto in landscape), e all'interno delle applicazioni Microsoft Office la porzione di documento visibile è più ampia e comoda da editare (la suite è disponibile sin da subito nella Home, ma le varie app sono da installare in un secondo momento e solo a discrezione dell'utente).Indubbiamente c'è chi preferisce i 4:3 e chi i 16:10, tuttavia Samsung Galaxy Tab S non viene più venduto ufficialmente, con Samsung che di fatto offre esclusivamente la variante da 4:3 con buona pace dei sostenitori dell'altro aspect-ratio e di chi usa il dispositivo per vedere film e simili. Galaxy Tab S2 è comunque l'unico tablet ad avere un display SuperAMOLED, e l'unità integrata, ve lo anticipiamo, è di qualità assolutamente sensazionale.

Ma andiamo con ordine. In principio fu One Plus One, nemmeno a farlo apposta il primo della stirpe. Si trattava di uno smartphone davvero molto interessante dal punto di vista tecnico e, per una volta, nonostante si trattasse di un prodotto Android, anche da quello estetico. Finiture curate, design sobrio ma ben studiato in grado di farsi apprezzare da tutti e una possibilità di personalizzazione a seguito dell'acquisto, grazie a delle cover realizzate in materiali particolari, che permetteva di dare al prodotto il personale tocco di stile. Se pensiamo poi al prezzo estremamente concorrenziale ecco spuntare una strategia senza subbio vincente, o quantomeno attraente.

Blog using your mobile phone - One of the best blogging apps on the market - click here!

Likes

Comments

Betterien: Nicht wiederaufladbar?

Der Vermerk «nicht wiederaufladbar» auf Alkalinebatterien ist in erster Linie eine Abschreckungsmassnahme der Batteriehersteller. Die Idee, herkömmliche Batterien aufzuladen, existiert schon länger.Mit einem gewöhnlichen Akkuladegerät ist dies unter penibel einzuhaltenden Umständen möglich, aber nicht ratsam. Bei einem zu hohen Ladestrom droht die Batterie zwar nicht zu explodieren, aber immerhin auszulaufen.Bis 20 Mal wiederverwenden statt entsorgen
Der Aargauer IT-Händler Brack Electronics bietet neu ein Ladegerät speziell für Alkaline-Batterien an, das aber auch herkömmliche Nickel-Metallhydrid- und Nickel-Kadmium-Akkus laden kann. Das Gerät verfügt über vier Ladeplätze für Zellen der Grössen AA bzw. Mignon oder AAA bzw. Micro. Jeder der Ladeplätze ist mit einer LED zur Statusanzeige ausgestattet. Bis zu zwanzig Ladezyklen lassen sich aus den Einwegbatterien herausholen.Ein Mikroprozessor überwacht den Ladevorgang und unterbricht die Stromzufuhr bei falsch eingelegten und überhitzungsgefährdeten Batterien oder bei solchen, deren chemische Energie endgültig erschöpft ist. Nach vier Stunden hört das Gerät auf, die eingelegten Batterien aufzuladen.

Das «Not Only Eco»-Batterieladegerät ist ab sofort bei Brack im Online-Shop und im Laden in Mägenwil erhältlich und kostet 54 Franken. Neben dem Ladegerät befinden sich ein Stromkabel und eine Bedienungsanleitung in der Blisterverpackung.Wetter- und wasserfeste Kameras sind ein Dauerthema – besonders solche, die auch echt tauchfähig sind und dem Druck bis 20 Meter unter Wasser standhalten. Für knappe 300 US-Dollar kommt nun die Oregon Scientific ATC9K auf den Markt, eine Kamera mit auffälligem Design und Foto- sowie HD-Video-Funktionen.«Oregon Scientific ATC9K» heisst eine neue Vertreterin dieser Gattung, die von der «Integrated Display Technology Ltd.» in Hong Kong hergestellt wird. Ihr gelb-schwarzes, auffälliges Kunststoffgehäuse soll bis 20 Meter wasserdicht sein. Charakteristisch ist die Stativschelle, welche das Objektiv umfasst und die Drehung der Kamera für Hoch- und Querformataufnahmen ermöglicht. Auf dem Objektiv sind zwei grosse Auslösetasten angeordnet, eine für Foto- und eine zweite für Videoaufnahmen. Die Kamera zeigt auf der Rückseite fünf auffallend grosse Einstelltasten, welche auch mit Handschuhen gut bedient werden können.

Herz der Kamera ist ein 1/3.2″ CMOS-Sensor mit fünf Megapixel Auflösung, der ebenso für Einzelbilder als auch für Videos mit 30 Bildern 1080p oder 60 Bildern 720p genutzt werden kann. Mit dem eingebauten Mikrofon sind auch Videoaufnahmen mit Ton möglich, die über den eingebauten Lautsprecher abgehört werden können. Die Belichtungssteuerung erfolgt ausschliesslich automatisch mit einer Helligkeits-Durchschittsmessung. Es sind zwei Selbstauslöserzeiten von fünf und zehn Sekunden vorhanden.Über einen eingebauten G-Sensor und ein optional erhältliches GPS-Gerät können verschiedene Daten, wie Aufnahmeort, Höhe über Meer, zurückgelegte Distanzen oder Entfernung zu gewissen Zielen ermittelt werden. Ferner wird zur Kamera eine Infrarot-Fernbedienung mitgeliefert.

Die Kamera verwendet einen Lithium-ion Akku, der in zwei Stunden zu 80% geladen ist und dann einen anderthalbstündigen Videoeinsatz gewährleisten soll.Zur ATC9K gibt es noch verschiedenes Zubehör, zum Beispiel eine Helmmontage-Einheit, ein spezielles Gurtband oder eine Befestigung an Fahrrad- oder Motorradlenkern.… und gleich noch eine neue Kompaktkamera von Samsung. Diesmal eine, deren Bilder sich dank integriertem USB-Stecker sehr leicht und schnell auf den Computer übertragen lassen. Aber auch sonst bietet sie interessante technische Eigenschaften und interessamte Motiv-Funktionen.Ein modernes, flaches Design, üppige Ausstattung und leichte Bedienung machen die PL90 zur idealen Kamera für jede fotografische Herausforderung. In hoher Detailtreue erfasst sie mit 12,2 Millionen Bildpunkten ihr Motiv und holt per 4-fach optischem Zoom auch Fernes nah heran.

Mit dem System für perfekte Porträts zeigt die Kamera besonderes Engagement in der Personen-Fotografie. Gesichtserkennung, Beauty Shot und Selbstporträt sorgen für gelungene Aufnahmen. Dabei kommt dank 28 Millimeter Weitwinkel ein besonders grossßer Ausschnitt auf das Bild. Mit 16 unterschiedlichen Szeneprogrammen, die auch automatisch erkannt werden, ist die PL90 jederzeit startbereit für unterschiedlichste Motive und Aufgaben. Die digitale Bildstabilisation garantiert, dass auch bei unruhigen Aufnahmesituationen scharfe und wackelfreie Bilder entstehen.

Die perfekte Aufnahme will gebührend bewundert werden. Ein Kinderspiel für die PL90: Mit integriertem, ausschwenkbarem USB-Arm fühlt sie sich bei jedem PC zuhause – ohne zusätzliches Anschlusskabel. Rasch angedockt, aktiviert die Kamera im Handumdrehen die im Gerät abgelegte Bildbearbeitungs-Software Intelli Studio und kann sofort das zeigen, was in ihr steckt – unabhängig von Zeit und Ort, von Kabel und Konfiguration. Damit ist die PL90 immer kompatibel, flexibel und mobil. Positiver Nebeneffekt: Ist die Kamera mit dem PC verbunden wird automatisch der Akku geladen und ist so jederzeit einsatzbereit.

Als Speichermedien akzeptiert die PL90 Micro SD- oder Micro SDHC-Karten. Letztere können bis zu einer garantierten Kapazität von 8GB verwendet werden.Kodak stellte heute die derzeit flachste Digitalkamera der Welt mit einem 5-fach optischem Zoom vor: Sie ist ferner mit Gesichtserkennung ausgestattet, welche das Wiederauffinden der Fotos vereinfacht und ermöglicht ein problemloses Hochladen der Bilder in die sozialen Plattformen, wie Facebook, YouTube, FlickR und Kodak Gallery.Die neue Kodak EasyShare M590 verfügt als derzeit flachste Digitalkamera der Welt mit 5-fach optischem Zoom über ein modernes Design und eine Reihe komfortabler und nützlicher Funktionen. Dazu gehören die Gesichtererkennung, die das Finden und Weitergeben von Bildern vereinfacht, sowie der intelligente Aufnahmemodus «Smart Capture», der das (nach Aussagen von Kodak) optimale Aufnehmen von Bildern ermöglicht.Die neue Kodak EasyShare M590 ist ein nützliches Zubehör für alle, die oft und gerne soziale Netzwerke nutzen, um andere an ihren Bildern teilhaben zu lassen. Dabei ermöglicht es der Kodak Share Button dem Nutzer, Fotos und Videos bereits in der Kamera zu markieren, um sie später mühelos auf die unterschiedlichsten sozialen Plattformen, wie Facebook, YouTube, FlickR und Kodak Gallery hochzuladen. Ausserdem lassen sich markierte Bilder auch einfach als E-Mail an den digitalen Bilderrahmen Kodak Pulse versenden.Mit Hilfe des Kodak Share Buttons können Konsumenten ihre Bilder auch an mehrere Adressen gleichzeitig schicken. Die Kamera wird nur an den Computer angeschlossen, und die Bilder werden automatisch an die gewünschten Adressen verschickt.«Mit der neuen Kodak EasyShare M590 verfolgen wir weiterhin unsere Strategie, innovative und intuitive Produkte mit modischem Design zu entwickeln – damit unsere Kunden, besonders diejenigen, die in sozialen Netzwerken aktiv sind, einfach und spielerisch ihre schönsten Momente mit anderen teilen können,» sagt Michael Willenborg, Senior Product Manager Digital Devices, Kodak.

Martin Krolop und Marc Gerst aus Deutschland, bekannt unter anderem aus zahlreichen Lernvideos auf fototv.de, gaben sich am letzten Sonntag die Ehre und führten die motivierten Jungfotografen des Vereins youngpp in die Welt des Blitzens ein. Mit vielen nützlichen Tricks, damit das Licht da sitzt, wo man es haben will …Der Workshop wurde nicht in einem Fotostudio sondern «on location» am Ufer des Vierwaldstättersees durchgeführt. Mit dabei waren, nebst einem Assistenten und Daniele Andrich von Profot, zwei professionelle Models, welche vor den Linsen der Teilnehmer viel Ausdauer bewiesen.Martin Krolop (2.v.l.) plauderte aus dem Nähkästchen und vermittelte Tipps und Tricks rund um’s Fotografieren «on location»

Den Start des Workshops bildete ein Theorieblock unter blauem Himmel. Krolop erzählte über seine Herangehensweise bei Foto-Aufträgen und gab dabei auch zahlreiche Tipps, welche man durchaus unter dem Thema «Marketing für Fotografen» einordnen könnte. Welche Fehler sollte man bei Fotoshootings grundsätzlich vermeiden und wie kann man reagieren, wenn das erste Probefoto einfach nur schwarz ist? Was ist beim Umgang mit Kunden und Models besonders hilfreich?Claudio ist eigentlich der Assistent. Für dieses eine Foto mit mobilem Elinchrom-Blitzgerät wurde er kurzerhand zum Model. Es sollte nicht das letzte mal sein …
Nach dem eher psychologischen Part, erörterte Martin Krolop die Grundlagen der Blitztechnik. Wie war das nochmals mit der manuellen Blitzlichtfotografie? Gerade jene Teilnehmer, welche noch mitten in der Berufslehre stecken, konnten hier enorm viel profitieren. Von den TTL-Möglichkeiten moderner Systemblitzgeräte verwöhnt, taten besonders ihnen die verständlichen, gut nachvollziehbaren Erklärungen des Profis sehr gut.

Gras im Fotostudio? Nein, das Model sitzt mitten einer Wiese unter freiem Himmel. Geblitzt wurde von oben und von rechts hinten – mit zwei per Funk ausgelösten Systemblitzgeräten nachmittags um 15:15Uhr! Fotografiert wurde dann natürlich auch noch – und nicht zu wenig! Während die eine Hälfte der youngpp-Schar in die Geheimnisse, Vor- und Nachteile der kabellosen Blitztechnik (Nikon, Olympus) eingeführt wurde, konnten sich die Canonisti mit einer mobilen Softbox und dem extrem langen TTL-Kabel vertraut machen. Sowohl Martin Krolop wie auch Marc Gerst gelang es auf sehr sympathischer Art, einige Aha-Erlebnisse zu provozieren. Die zahlreichen Möglichkeiten von (entfesselten) Aufsteckblitzen, aber auch die Grenzen dieser Geräte konnten in der Praxis erprobt werden.

Likes

Comments

Elle a effectué son virage vers la vente privée en 2006, en lançant le site de e-commerce Vente du diable, l'un des premiers à s'être spécialisé dans l'univers des nouvelles technologies. Pour booster le potentiel de la plate-forme, l'entreprise a collecté en 2007 deux millions d'euros au cours d'un tour de table auprès du fonds d'investissement OTC asset management. 10 ans après le lancement de Vente du diable, la société dit organiser plus de 2500 ventes privées chaque année. Elle totaliserait 3 millions de membres, en majorité des hommes (60%) de 30 à 40 ans. Ils peuvent acheter en ligne du matériel high-tech à prix cassé (jusqu'à -70% promet le groupe). Les produits sont neufs ou reconditionnés. Les internautes disposent de périodes de temps limitées (entre 2 et 5 jours maximum) pour faire leurs emplettes sur le site, en achetant des articles écoulés par différents partenaires du groupe (Apple, Dell, Lenovo, Acer…).


Vente du diable a développé différentes solutions logistiques pour ses fournisseurs (des entreprises qui veulent se débarrasser rapidement de stocks produits, comme le montre le déconcertant dessin ci-dessous, trouvé sur un site présentant les activités du e-commerçant). Elle peut acheter directement leurs lots et gérer la livraison jusqu'au client final, ou laisser ses partenaires opérer.
Sur son site, Vente du diable indique avoir rejoint le groupe Green&Biz en 2016, un autre spécialiste du reconditionnement de matériel électronique.
2 100 start-up repérées par vingt universités dans le monde entier… et 10 sélectionnées au final. Il va sans dire que l'observatoire Netexplo a choisi de mettre en avant, lors de sa neuvième conférence (les 9 et 10 février), la crème de la crème de l'innovation. Des jeunes pousses qui "repoussent les limites", selon les mots du comité de sélection, dans trois grands domaines : le corps augmenté, la robotique toujours plus intelligente (quoique), et les nouvellles formes d'interactions. Le grand public est invité à participer, aux côtés d'un jury d'experts, à la désignation d'un Grand prix, parmi ces dix candidats. Il peut voter du 28 janvier au 9 février, sur le site netexplo.org.
1. PARTIR D’UN PILOTE
"Nous disposons aujourd’hui de cinq sites équipés de salles de réalité virtuelle", se félicite Helmut Dietz, le chef de la production digitale de Bombardier Transport. Le constructeur a démarré modestement. La première initiative a été lancée par une petite division, les locomotives, et menée par le site allemand de Kassel fin 2010. Il a d’abord fallu choisir le logiciel. Repérages sur les salons professionnels, étude comparative chez les concurrents et autres industriels ont amené Kassel à opter pour "l’application la plus utilisée dans l’auto et l’aéro", selon Helmut Dietz. Pas de prise de risque pour ce coup d’essai. Le choix s’est porté sur la solution IC.IDO, du français ESI Group, dans sa version de base. Sa première application a concerné la conception d’une locomotive pour Deutsche Bahn, qui voulait en modifier le design en profondeur. "Kassel a invité Deutsche Bahn à travailler sur la dernière version de la locomotive en réalité virtuelle. Ce qui a permis de le convaincre de renoncer à ses modifications. Un énorme gain de temps et d’argent et un essai concluant", raconte Helmut Dietz.

2. COMMUNIQUER EN INTERNE
Les équipes de Kassel étaient tellement satisfaites de leur réalité virtuelle qu’elles en ont assuré la promotion au sein du groupe. Probablement la meilleure façon de susciter l’envie ! Petit à petit, la réalité virtuelle s’est diffusée de site en site et de produit en produit : à Kingston (Canada) et ses métros fin 2011, à Görlitz (Saxe) et ses trains à deux niveaux fin 2012, à Siegen (Rhénanie du Nord) et ses bogies à l’été 2014... jusqu’à Hennigsdorf, près de Berlin, le plus grand site de Bombardier, où sont construits les trains à grande vitesse ICx. La salle de réalité virtuelle y est logiquement la plus grande et la mieux équipée. Devant l’écran de 5 mètres de largeur sur 2,50 mètres de hauteur, lunettes 3D hérissées de petites boules sur le nez et manette de même acabit dans les mains, Thomas Siegemund, le directeur technique pour les métros, balade ses invités dans les rames du métro de Stockholm ou zoome sur l’une des 440 000 pièces qui le constituent. Un an auparavant, raconte-t-il, ses équipes testaient un système mobile de réalité virtuelle pour le développement du métro de Hambourg. "Plus d’une centaine d’erreurs d’ingénierie ont pu être évités. Sans la réalité virtuelle, on ne les aurait détectées qu’en production", explique Helmut Dietz. La direction du site a immédiatement validé l’installation de la salle, qui a coûté 1 million d’euros.

Après les ingénieurs, il faut aussi convaincre le top management. "Il est essentiel d’avoir leur soutien pour développer cet outil", insiste Helmut Dietz. Pour l’obtenir, business case et calcul du temps de retour sur investissement sont indispensables, mais pas forcément évidents. "Réduction du nombre de changements d’ingénierie, réduction des prototypes physiques… Il y a beaucoup de bénéfices qui peuvent être difficiles à évaluer. L’expérience acquise à travers les premières initiatives nous a aidés." Le grand patron est convaincu et décide, début 2015, de reprendre les choses en main. Il met ainsi fin aux initiatives menées en ordre dispersé. La réalité virtuelle est désormais pilotée par la direction des opérations. La priorité est d’harmoniser l’utilisation de cet outil. "Chacun avait développé ses propres méthodes ! Nous avons créé un groupe d’utilisateurs, que j’anime, pour partager les nôtres et les harmoniser", précise Helmut Dietz. La centralisation permet aussi de parler d’une seule voix au fournisseur du système, ESI Group. Les nouveaux systèmes seront commandés à partir du siège, à Berlin. La réalité virtuelle entre dans le réel chez Bombardier.

4. POURSUIVRE LE DÉPLOIEMENT PAR ÉTAPES
La direction veut en faire un outil standard du développement de produits. L’heure est au déploiement de salles d’immersion sur les sites du groupe. Bombardier y consacrera 6 à 7 millions d’euros au cours des prochaines années. Le site français de Crespin (Nord) devrait être équipé fin 2016. Mais il n’est pas question d’aller trop vite. "Nous voulions tout déployer en même temps, mais nous sommes revenus en arrière. On a besoin de procéder région par région, projet pilote par projet pilote pour convaincre les ingénieurs", reconnaît Helmut Dietz. En attendant, Bombardier peaufine ses systèmes. Les différentes salles de réalité virtuelle peuvent désormais être synchronisées : Kassel peut voir ce qui est montré à Kingston. Surtout, Helmut Dietz a un gros chantier en cours. Il doit connecter la réalité virtuelle à son PLM (product lifecycle management). Pour l’instant, les données extraites de la CAO (Catia V5) passent par le PLM avant d’être transférées, manuellement, dans le logiciel de réalité virtuelle IC.IDO. Helmut Dietz veut automatiser ce transfert. L’occasion de mettre enfin le département informatique dans la boucle. Un point clé pour inscrire durablement la réalité virtuelle dans l’entreprise.
Avec l'avènement du cloud, les besoins en data centers sont de plus en plus importants. Leurs opérateurs cherchent par conséquent à en diminuer au maximum les coûts. L'un des points les plus épineux en la matière est le refroidissement de ces fermes de serveurs, qui représente la majeure partie de leur consommation énergétique. Microsoft Research pense avoir trouvé une solution pour optimiser ces coûts : mettre les serveurs au fond de l'océan.

La division recherche de Microsoft a dévoilé le 1er février le projet Natick, qui vise à tester la viabilité de data centers sous-marin. Le premier test a eu lieu entre août et novembre 2015. L'équipe en charge du projet a installé pendant trois mois un rack de serveurs au fond de la mer, à 800 mètres de la côte pacifique des Etats-Unis. Les serveurs, d'une puissance équivalente à celle de 300 ordinateurs de bureau, se trouvaient à bord d'un vaisseau expérimental baptisé Leona Philpot, mesurant 3 x 2 mètres pour un poids de 17 tonnes. Outre l'énorme avantage qu'il procure en matière de refroidissement (même par rapport à un dispositif de refroidissement liquide classique), Microsoft met en avant les potentiels gains en latence qu'apporterait cette solution. D'après les chercheurs, la moitié de la population mondiale vit à 200 km ou moins de la mer, ce qui permettrait aux data centers d'être situés plus près des grands centres urbains.

L'autre intérêt de cette approche serait la standardisation des équipements. Plus besoin de prendre en compte des environnements complexes et uniques pour chaque projet (permis de construire, géographie, climat...). Les conditions dans les environnements marins étant très similaires, un data center Natick pourrait être mis au point très rapidement (la version de test a été construite en seulement 90 jours), contre un à deux ans à l'heure actuelle. Et ils sont loin de nuire à la faune et la flore marine, qui se sont en trois mois complètement appropriés le Leona Philpot. Enfin, dans un souci de développement durable, les centres pourraient tirer une partie de leur énergie de sources renouvelables (marémotrices, houlomotrice ou hydroliennes).

Likes

Comments

Encryption can also provide a secondary benefit when it’s time to retire old hardware. “When you go to recycle your computers at the end of their life, make sure you’ve destroyed data on them,” added John. “If you’re using encryption, it’s easy to wipe that drive so that it isn’t recoverable.”I’ve changed my mind about Premiere Elements a few times over the years. It started life as by far the most powerful consumer video editor around, thanks to its Premiere Pro pedigree, but years of dumbing down and feature sprawl took their toll. It rose from the ashes in 2012 with a radical makeover, but this year it looks like Adobe is treading water once again.You know the bar has been set low when two headline features are Guided Edits to reveal features that have been included in the software for years. Color Pop shows users where to find the Red Noir effect, which converts footage to monochrome while maintaining saturated reds. The tutorial then shows how to adjust settings using the HSL Tuner filter to isolate a different colour.The other new Guided Edit shows how to use the Time Remapping tool to create variable slow- and fast-motion effects. It’s a great feature, but not particularly hard to figure out without assistance.

To be clear, I really like Premiere Elements’ Guided Edits. While Photoshop Elements’ similarly named feature presents advanced functions with simplified controls, Premiere Elements’ implementation just points to the controls required to achieve various functions. This makes it much easier to go off on a different tangent, and apply the skills to other parts of the application. The disappointing thing is that they’re trickling out at a rate of two per year. Guided Edits are nothing more than an interactive manual, and there’s no excuse not to cover the whole application with a few dozen tutorials and be done with it.Audio View is another new feature that’s largely cosmetic. It reveals buttons on each audio track for recording a narration and for soloing the track, but, surprisingly, there’s no mute button. A master level meter and fader help you avoid distorting the audio output, but there’s no fader for individual channels, despite what the pop-up mixer suggests. Instead, levels are set per audio clip. When in Audio View mode, the Tools, Transitions and Effects buttons in the Action Bar show audio-related functions by default, but all this amounts to is an interface tweak and little more.

The new animated titles are more substantial. There are 32 preset templates to choose from, organised by genres such as Sports, Travel and Wedding. They’re unusually elegant for consumer-oriented software, with simple illustrative graphics that shimmy into view along with a few lines of editable text.The trouble with the more elaborate templates is that it’s trickier to give the user free reign to customise them. The total length of these animated titles is fixed, and inserting longer words than the template allows sometimes causes them to overlap. Text can be resized, reformatted and moved around, but it’s a little awkward. The presets are downloaded on demand, but doing so is painfully slow — 4MB downloads consistently took over a minute.

Another key new feature is 4K support, with Adobe making specific references to the Panasonic GH4, Sony AX100, GoPro Hero 4 and a few other cameras. We had no problems importing 4K footage from a variety of sources, but preview performance was predictably poor on our Core i7 3517U laptop. Sony Movie Studio Platinum was no better when handling 4K footage directly, although it has the significant advantage of proxy editing – where temporary 720p copies of footage are generated to speed up preview performance.A long-running complaint of mine is how tricky it is to maintain consistent frame rates and resolutions from import to export. This is much improved in version 14, with a revamped Export dialog box that automatically matches the frame rate to the source footage and offers various popular resolutions such as UHD 4K (in XAVC-S format), 1080p and 720p.

Meanwhile, the Advanced Settings panel gives options to adjust export settings manually, including detailed control over compression and the ability to save user presets. There are tick boxes to force the resolution, frame rate and compression profile to match the source footage. Frame rate mismatches should, therefore, be a thing of the past.There’s an opportunity to set the resolution and frame rate of the timeline when creating a new project, although you may as well ignore this since the software automatically changes these to match the first imported media. Confusingly, the timeline counts up to 30 frames for each second, regardless of the source footage. In fact, it does use the correct number of frames per second on the timeline. For lower and higher frame rates, it skips or duplicates the numbered frames as necessary to give the required number.

There’s still no support for 2.7K resolutions on the timeline, but while this won’t be an issue for most people, it means the software refuses to apply its excellent Shake Stabilizer effect to 2.7K GoPro footage.All Toshiba’s new consumer laptops will be equipped with a Cortana button and will be equipped with dual microphones to “get the most from Cortana” when they ship in July, it emerged today. Only one of the pre-production demo units at the launch event I attended was adorned with the new key, and Cortana wasn’t yet active on the machines. I was told, however, that pressing down and holding the “Quick access” button (the F1 key with a search icon on it), would launch Microsoft’s digital assistant, ready for action.

New Toshiba Satellite laptops
The revelation came during the unveiling of Toshiba’s new Satellite laptops, which will initially come with Windows 8.1 preinstalled, but will be upgradable to Windows 10 for free when Microsoft’s new operating system is launched.The pick of the new models is a 15in Windows hybrid: the Toshiba Satellite Radius 15. The Radius – whose lid and keyboard surround is clad in brushed aluminium – has a 360-degree hinge that allows the laptop to be used in a number of different configurations.The Radius is also equipped with an IPS touchscreen with Full HD resolution, and the most powerful models will have fifth-generation Intel Core i5 processors, 16GB of RAM and a 2TB or 256GB SSD. Prices for the Radius 15 will start at £599 inc VAT.

Aside from the Radius, Toshiba unveiled 12 laptops across three other ranges. The low-end 15in and 17in Satellite C portables, which will be the first C Series machines to have SSDs as an option, will be powered by Intel Broadwell CPUs up to Core i5, while some will feature the new AMD Carrizo processors.The three new 15in and 17in L Series laptops will also have fifth-generation Intel processors (up to Core i7) or AMD Carrizo A10s, up to 16GB of RAM and a 2TB hard disk or 256GB SSD, plus screens with a resolution of up to 1,920 x 1,080.Those who enjoy the odd game will be pleased to see that the Satellite L comes with Onkyo speakers which have been “tuned by Skullcandy”, and will have the option of being specified with a separate GPU – up to an Nvidia GeForce 930M with 2GB of dedicated VRAM.

Toshiba Satellite P50C-t
The Satellite P Series also catches the eye, in particular the P50t-C. Toshiba’s premium Satellite model will have a high-DPI 3,840 x 2,160 IGZO touchscreen that’s factory-calibrated. It will be available with up to fifth-generation Intel Core i7 processors, Nvidia GeForce GTX 950M graphics and Harman Kardon-branded speakers.Leaked pictures of Dell’s Surface Pro rival, the XPS 12, have been around for some time now, but Dell has only just officially confirmed the existence of the new device. In an announcement that also encompassed the unveiling of two new XPS laptops, we had the chance to go hands-on with the device.

Likes

Comments

Il mercato dei sistemi notebook vede a disposizione dei consumatori un numero sempre più elevato di proposte, differenziate a seconda del tipo di utilizzo per il quale verranno utilizzate. Dai modelli ultrasottili sino ai recenti ibridi convertibili, in grado di incarnare al proprio interno differenti modalità di uso in un singolo device, troviamo notebook più tradizionali nel design che per un costo di poco superiore a quello di un corrispondente sistema desktop offrono tutto quello che serve ad un utente tipico.Una categoria di prodotti che ha conosciuto una rapida evoluzione tecnologica nel corso degli ultimi anni è quella dei notebook per il gaming: si tratta di prodotti che abbinano un design che richiama i temi cari ai videogiocatori con una dotazione hardware di prim'ordine e, ovviamente, una capacità di assicurare sia frames al secondo medi molto elevati sia una ottima giocabilità.

La taiwanese MSI è da tempo impegnata in questo settore di mercato con proprie soluzioni che fanno leva sulle più recenti tecnologie di CPU e GPU. Il modello GS60 6QE Ghost Pro ne è una esemplificazione lampante visto che utilizza un processore Intel Core i7 della famiglia Skylake, una GPU NVIDIA GeForce GTX 970M e un display con risoluzione di 4K. Nella tabella seguente ne sono riassunte le principali caratteristiche tecniche: MSI ha scelto di utilizzare un processore Intel Core i7 di ultima generazione, basato sulla nuova architettura Skylake che Intel ha reso disponibile anche in sistemi portatili a partire dalla fine dell'estate. Il sottosistema video è basato su una scheda GeForce GTX 970M, proposta di fascia alta appositamente sviluppata per i sistemi portatili, mentre i 16 Gbytes di memoria di sistema sono una riserva più che sufficiente per le necessità del sistema operativo Windows 10 e delle varie applicazioni che con questo notebook possono venir utilizzate. Lo storage locale prevede un SSD da 256 Gbytes di capacità per il sistema operativo e le applicazioni, affiancato da un hard disk meccanico da 1 Terabyte da utilizzare per archiviare i dati: un abbinamento che assicura prestazioni velocistiche e buona capacità di storage.

Pur trattandosi di un sistema pensato per i videogiocatori, il notebook MSI GS60 6QE Ghost Pro è caratterizzato da una certa eleganza complessiva. La scelta di una finitura metallica per il guscio superiore dello schermo è replicata anche per l'area della tastiera, mentre l'area inferiore del notebook ha una copertura plastica particolarmente solida e di buona resistenza agli urti. Il logo Gaming Series domina il guscio superiore a ricordare che si tratta di un notebook destinato al pubblico dei videogiocatori, ma mancano altre connotazioni grafiche particolarmente evidenti che invece caratterizzano altri notebook per gamers presenti sul mercato. A nostro avviso quella di MSI è una scelta stilistica chiara che apprezziamo, e che riteniamo possa trovare il gusto di coloro che sono appassionati di gaming ma non ricercano un prodotto eccessivamente appariscente.

In questo scenario, si inserisce da oggi Leica con un nuovo prodotto, anzi un nuovo sistema: Leica SL. A rigore si tratta di un sistema mirrorless, ma per Leica è il vero erede del sistema R; sistema reflex che, con disappunto degli appassionati, ha concluso il suo ciclo vitale nel 2009 con la produzione dell'ultima R9. La posizione di Leica è quindi piuttosto chiara: la tecnologia reflex esce di scena per lasciare spazio a una nuova generazione di fotocamere 35mm digitali di stampo professionale. La Leica SL - nome che richiama l'omonima Leicaflex del 1968 - si inserisce tra il peculiare sistema M e lo splendido, ma decisamente costoso, sistema medio formato Leica S.


Così facendo, il costruttore tedesco colma una lacuna evidente nella sua gamma attuale, con lo scopo di attirare a sé un pubblico di fotografi che, per ragioni diverse, non si riconoscono né nel telemetro né nel medio formato - lo stesso pubblico, per inciso, che oggi acquista i corpi macchina professionali di Canon e Nikon. I capisaldi secondo cui è stata progettata la nuova fotocamera sono presto detti: funzioni evolute e prestazioni elevate, analoghe a quelle delle ammiraglie reflex, racchiuse in un corpo macchina "essenziale", in perfetto stile Leica. Nessun orpello come filtri creativi, Scene e simili; solo il necessario per scattare buone foto, senza distrazioni.

Un aspetto fondamentale del corpo macchina è ovviamente il mirino elettronico, terreno su cui si gioca buona parte della partita. Leica è fiera di aver prodotto quello che, a suo parere, è il mirino elettronico "definitivo": reattivo e fluido, di risoluzione elevata e molto ampio, ricorda in effetti, sotto certi aspetti, quello ottico del sistema S, il che non è un risultato da poco. Il nuovo gioiellino Leica costerà 6900 Euro (grossomodo come una M, dunque) e sarà accompagnato da 3 ottiche che, da sole, fanno un piccolo corredo: Leica Vario-Elmarit-SL 1: 2.8-4 / 24-90mm ASPH, Leica Apo-Vario-Elmarit-SL 1: 2.8-4 / 90-280mm, Leica Summilux-SL 1: 1.4 / 50mm ASPH. Abbiamo avuto la possibilità di vedere e provare, presso Leica Italia, un esemplare di pre-produzione equipaggiato con lo zoom 24-90mm. Ecco le nostre impressioni nelle prossime pagine.

Appuntamento immancabile, come ogni anno, quello che vede protagonisti i nuovi iPhone. Annunciati lo scorso mese di settembre, iPhone 6S e iPhone 6S Plus rappresentano le due soluzioni al top della gamma con cui Apple affronta la categoria degli smartphone. I modelli della precedente generazione vengono proposti come intermedi, con iPhone 5S che diventa la proposta entry-level della compagnia di Cupertino e iPhone 5C che viene di fatto eliminato dai canali di rivendita ufficiali. Se durante la presentazione del 2014 Apple ci aveva sorpreso con due modelli estremamente rivisitati, quest'anno ci troviamo di fronte ad un'evoluzione di tipo "S", ovvero con miglioramenti nascosti sotto la scocca, che è ancora una volta in alluminio unibody con angoli arrotondati e privi di soluzioni di continuità.

Sebbene invisibili alla vista, e probabilmente non rivoluzionarie, le novità dei nuovi melafonini sono parecchie. Si inizia con i materiali utilizzati: Apple ha infatti adottato una lega custom basata su alluminio Serie 7000 che nei primi test apparsi online si è verificata decisamente più resistente rispetto al metallo usato nei predecessori. In molti si ricorderanno il caso bend-gate scoppiato l'anno scorso soprattutto con iPhone 6 Plus che, secondo alcuni utenti, si piegava anche quando riposto normalmente nelle tasche di pantaloni e jeans. Sono così apparsi numerosi test per verificare la rigidità strutturale del dispositivo che in effetti risultava sensibilmente inferiore rispetto ad altri modelli proposti dalla concorrenza con materiali meno ricercati. Apple ha subito risposto a più riprese sul caso, sottolineando che il problema era limitato a pochi dispositivi utilizzati in maniera non idonea.

Apple iPhone 6s e iPhone 6s Plus a confrontoGuarda tutte le foto »
Con l'uso di un nuovo materiale Apple ammette implicitamente che l'alluminio di iPhone 6 e iPhone 6 Plus non è così resistente, con la società che è evidentemente corsa ai ripari su uno dei problemi più discussi dei precedenti dispositivi. Come ogni modello "S" che si rispetti, sono particolarmente importanti soprattutto le novità sul piano hardware: i nuovi iPhone 6S utilizzano un processore rinnovato nelle tecnologie produttive e con specifiche hardware differenti. Apple A9 è ancora una volta un dual-core (prodotto da Samsung a 14-nm e TSMC a 16-nm) con supporto a set di istruzioni a 64-bit, e operante alla frequenza di clock di 1,8GHz. La CPU viene supportata per la prima volta nella storia dei melafonini da 2GB di RAM, quest'anno ancora più veloce grazie ai nuovi moduli LPDDR4. La GPU dovrebbe essere ancora una volta di Imagination Technologies, anche se quest'anno in configurazione a sei cluster.

Likes

Comments

Antoine Petit : On ne peut pas apporter une réponse binaire. Pour moi, c’est un peu la même chose que si vous allez voir votre psychiatre, tenu par le secret professionnel. S’il se rend compte que vous être un serial killer, le secret professionnel tombe. C’est une question de limite. Mais il est très compliqué de la définir. Si les constructeurs informatiques se mettent à fournir les données de n’importe quel ordinateur que l’autorité policière aura saisi, on comprend bien que c’est la porte ouverte à tous les abus. À l’inverse, si vous savez qu’en ouvrant un ordinateur on peut mettre fin à Daesh... la seule solution est d’avoir une décision de justice, qui soit argumentée et contre laquelle on puisse plaider.


Mais en creux, l’affaire ne pose-t-elle pas la question du contrôle sur l’utilisation des technologies de chiffrement ?
Un gouvernement n’empêchera jamais un chercheur brillant de proposer en open source un logiciel de cryptage. Il n’est donc pas possible de contrôler ces technologies. Ou alors, on est dans un état policier et l’on empêche les gens d’avoir un certain nombre d’activités. On n'a pas le droit de construire une arme atomique. Mais il est plus difficile d'interdire du développement logiciel. En fait, c’est un problème éthique. Mais encore une fois, il n’y a pas de réponse simple oui/non dans l’affaire Apple-FBI.

L’Inria se pose-t-il ces questions éthiques ?
Nous avons un comité d’éthique, qui vérifie que les chercheurs ne veulent pas faire des choses qui soient contraires à la Loi. Par exemple, étudier votre comportement devant un ordinateur est intéressant. Si c’est fait avec votre consentement, pourquoi pas. Si on vous espionne, c’est une catastrophe. Autre exemple : de nombreuses publications sortent sur les mooc et ce qu’une société comme Coursera peut en tirer. Si, lors de la correction des copies le professeur peut regarder comment vous avez répondu à l’examen, hésité, corrigé choisi l’ordre des questions… vous n’avez pas forcément envie que cela entre en compte dans l’évaluation.

Mais, massivement, ces informations peuvent être riches d’enseignement, pour adapter les cursus par exemple ?
Cela pose la question de savoir ce qui relève des données personnelles et de ce qui relève des données collectives. Et, si l’on y réfléchit bien, le mot de désanonymisation est en lui-même un gag, car cela signifie qu’au départ ce n’est pas anonyme. Et un des dangers avec les données est que si on les recoupe, on peut en déduire des choses que vous n’avez pas envie de dévoiler. Sur ces questions l’Inria travaille notamment sur le droit à l’oubli et l’idée de délais d’effacement et d’obsolescence des données.

Vous êtes un nouveau membre du CNNum. Allez-vous y travailler sur ces sujets d’éthique ou de sécurité ?
Nous nous sommes réunis la première fois le 25 février pour faire connaissance et réaliser un premier tour de table des sujets. Il y en a beaucoup. Et rien n’est décidé. Mais le CNNum travaille sur l’enseignement du numérique. Et souhaite se positionner sur le sujet des PME. Comment réagissez-vous quand Facebook vient ouvrir un laboratoire d’intelligence artificielle en France ?
On est ravi. D’abord parce que l’on est content de travailler avec les très bons de Facebook et d’avoir accès à des jeux de données sur lesquels tester nos algorithmes. Le choix de Facebook est aussi un signe de reconnaissance de notre excellence. On est ravis aussi parce qu’ils sont malins. Ils pourraient faire des offres que nos chercheurs ne pourraient pas refuser. Et ils pourraient nous prendre tous nos meilleurs dans le domaine. Mais, ils savent très bien que s’ils faisaient cela, ils couperaient la branche sur laquelle ils sont assis. Car ce sont les chercheurs d’aujourd’hui qui forment les chercheurs de demain.

Si vous enlevez tous les très bons du milieu universitaire, les étudiants ne viendront plus dans ce domaine-là. A moyen terme Facebook serait perdant, parce qu’il ne pourra pas recruter les talents dont il a besoin. Pour autant, nous réfléchissons à comment l’on peut coopérer avec eux, y compris au niveau individuel. Par exemple, Yann Le Cun, directeur du laboratoire IA de Facebook, est aussi à temps partiel à la New York University. Il faut qu’on arrive à créer ces doubles positions public-privé. Cela ne peut qu’accroître les synergies. On n’en est pas là. A quelques pas, une autre équipe est à fond sur la blockchain. Ce qui nous a frappés, explique Soukaina qui fait partie de l’équipe, c’est que parmi les étudiants autour de nous, tous n’étaient pas forcément intéressés ou au courant. Alors nous avons voulu créer une idée de business qui leur serve dans leur vie quotidienne. Sur un parcours en cinq étapes, où on trouve aussi bien de la vaisselle que des enveloppes kraft ou un jeu de cartes créé pour la journée, l’équipe a développé des services spécifiques. Par exemple, après une identification via la technologie blockchain, ils proposent une sorte de dossier en ligne pour étudiants recherchant appartement. En trois clics, la démonstration est concluante. A côté, on explique comment assurer son ordinateur de la même façon. Soukaina est impatiente d'avoir les réactions des vistieurs, pour adapter le produit et aller encore plus loin dans la démarche.

L’idée d’entreprise n’est pas encore mûre mais là n’est pas l’important. Les étudiants ont quelques semaines pour peaufiner leur projet. Interrogés sur cette formation, une des étudiantes s’enthousiasme : cela n’a rien à voir avec ce qu’on a fait avant. C’est un super format où on garde une grande autonomie. Créera-t-elle son entreprise dans la foulée. Elle n’en est pas sûre : ça dépendra des opportunités qu’on me proposera mais, assure-t-elle, les outils reçus nous serviront plus tard. J’en suis certaine. Y compris ce qui est attendu de la troisième partie de ce parcours initiatique : les étudiants doivent présenter un prototype et un business model. Des compétences qui intéresseront leurs futurs emplois, quels qu’ils soient.
TRIBUNE Depuis le 15 septembre 2016, les utilisateurs français de Snapchat peuvent accéder à du contenu issu des médias français sur Discover, la fonctionnalité de l'application au petit fantôme. Huit médias se sont lancés dans l'aventure, et pas forcément ceux qu'on attendait. Si Melty, Tastemade, Vice, Cosmopolitan et Kombini étaient attendus au tournant, ce n'était pas le cas du Monde, de l'Équipe, et de Paris Match. Dans le cadre des ateliers du Social Media Club, Aurélien Viers, responsable du pôle visuel à L'Obs, revient sur cette nouveauté dans le paysage médiatique français.

On sait qu'en France, Snapchat, c'est déjà le troisième réseau social, avec plus de huit millions d'utilisateurs. C'est donc normal que les grands médias s'y intéressent. La première constatation, c'est le haut niveau de qualité du contenu produit sur la plateforme. Derrière les comptes Discover, et on l'avait déjà constaté aux États-Unis, on trouve des grosses équipes dédiées, bien constituées, pluridisciplinaires, impliquant des vidéastes, des motion designers, des chefs de projet, des infographistes, des data analystes, et, bien sûr, des journalistes. Les médias ont bien compris que se lancer dans l'aventure Snapchat impliquait de staffer correctement les équipes dédiées.

Sur la pratique, il est intéressant de constater le retour à une approche assez classique : on retrouve un chemin de fer, une heure de bouclage pour sortir la story, bref, des choses qui nous ramènent un peu en arrière, au temps du print. Sur la forme, on redécouvre le plaisir de feuilleter un journal, grâce à la très bonne adéquation des formats avec le support. Pendant longtemps, les médias se sont contentés de reproduire des formats conçus pour ordinateur sur le mobile : on avait des photos en paysage qui fonctionnaient assez mal sur le mobile, et c'était pareil pour la vidéo. Là, le format et la navigation sont parfaitement adaptés au mobile : on est à la fois dans le swipe, comme sur un album photo, et dans la profondeur en scrollant vers le bas pour avoir plus d'info. L'avantage de ce type de formats, c'est qu'il permet une hybridation entre des formats très courts, comme un petit bonbon, qui peuvent être compris en cinq secondes, et des formats un peu plus long, plus narratifs.

Likes

Comments

“Interestingly, Sukhbir wrote his name correctly, but entered an incorrect contact number to mislead others in case he acted foul. The CCTV footage was not clear about his identification except for some clues on his physical description,” the DCP added.According to the police, their first meeting did not go well as Kusum was unhappy that Sukhbir was unemployed. After lunch, she started losing interest and sensing this, Sukhbir demanded that she give him Rs 50,000 as he had come down only to see her.Kusum refused to give him the money. He then asked her to at least buy him air-tickets to Delhi and give him at least Rs 3,000-5,000 for his expenses as he was not carrying any cash. Kusum got upset and told him to leave the house.

A heated argument followed by a scuffle broke out. Sukhbir strangled Kusum using a laptop charger chord and later stabbed her on her head using a pen and killed her.He then left his blood soaked jeans near a vent at Kusum’s house and wore one of Kusum’s jeans from her wardrobe, the police said.The accused then fled with her three ATM cards, two cheque books and her phone, He put them in her laptop bag, locked the door and walked away.According to the police, while on his way to the airport, Sukhbir called up the bank using Kusum's phone and requested for a new PIN number since Kusum had forgotten the existing one.The bank responded immediately and sent a new PIN number to Kusum’s phone, using which Sukhbir withdrew Rs 11,000 from Bengaluru and took a flight to Mumbai.

From there, he took another flight to Delhi and withdrew Rs 34,000, to repay the money he had borrowed from one of his friends.Sukhbir then took his car that was parked at Delhi International Airport and drove to Palwal, where he was picked up by the city cops in less than 24 hours.South East police had formed six teams that were working on tracking the movements of the accused.The teams started collecting his profile details using social media communication between him and the victim, call detail records, tower locations, air-travel documents, and zeroed in on him successfully with the help of the local police in Palwal. Sukhbir Singh will be brought to the city on Thursday night.

You are working on your laptop and suddenly the PowerPoint you are editing, freezes. Why? Because your children in the other room started downloading a heavy video from YouTube. Familiar scenario? Happens all the time when you use a Wi-Fi router to share a single broadband connection to the home. Wireless hotspots are limited by the technology they harness. The underlying Wi-Fi technology (called 802.11 a, b, g ,n or ac) that fuels the wireless hotspot at home or office today, can serve only one device at a time. It cycles rapidly from one PC, phone or laptop to the other, creating the illusion that all are being simultaneously served. But when one user gobbles up the gigabytes, other applications grind to a halt. Not anymore.

The first devices that harness an exciting new technology were unveiled last month -- by mid 2016 we can expect to see them in India. The Wi-Fi routers we use today exploit what is called SI MIMO: Single User Multiple In, Multiple Out. That means, while multiple devices can latch on to hotpot, IT only serves one user at a time -- which explains the familiar logjams. The current Wi-Fi standard, 802.11ac has now been updated as 11 ac Wave2 and it enables Multi User or MU MIMO. This means it can serve every user device in the home, simultaneously. No more waiting in queue!Linksys says its new Max-Stream series of MU-MIMO-ready routers, which we can expect to buy for between Rs 14,000 and Rs 20,000, "function as if multiple devices have their own dedicated router....the whole household can play video games, listen to music, check email, shop, stream movie – all at the same time." A new Wave 2 router alone is not enough; you need a matching wireless adapter at the PC or laptop end. So Linksys has also launched a Max Stream USB adapter for the equivalent of Rs 4,000.

Another router leader, TP-Link has gone ahead and announced a MU-MIMO router, the Talon AD7000, that offers the next iteration in data speed beyond 11ac -- that is 11ad . This means serving multiple users at the same time at even higher speeds -- up to 4.6Gbps.. about 3 times faster than all 11ac routers today Who needs these dizzy speeds? Well, you and I will demand them, as we get used to better and sharper TV -- which is already moving from 2K and HD to 4K and Ultra HD. By end 2016, we can expect dish operators to offer more and more content in 4K -- mostly live sports. This will be useless unless we have the means to share such pixel-rich stuff across the home ... and on our phones. MU-MIMO does just that. Acer has already made 3 models in its Aspire series of notebooks, MU-MIMO-ready as has Motorola with its X series phones. The common factor is a chip solution called Qualcomm Vive. Expect to find Vive under the hood of many more smartphones and tablets this year.

Who better to help us understand what MU-MIMO means for us that the man widely known as the Father of MIMO -- India-born emeritus professor at Stanford University, Dr Arogyaswamy Paulraj? It is exactly 20 years since he invented the MIMO standard and obtained a patent jointly with another Indian and Stanford don, Dr Tom Kailath.Who better to help us understand what MU-MIMO means for us that the man widely known as the Father of MIMO -- India-born emeritus professor at Stanford University, Dr Arogyaswamy Paulraj? Who better to help us understand what MU-MIMO means for us that the man widely known as the Father of MIMO -- India-born emeritus professor at Stanford University, Dr Arogyaswamy Paulraj?

"The increased data rate offered by MIMO is distributed across multiple users simultaneously - instead of a single user as in ordinary MIMO", he told me, but adds a caution: "11ac works at 5GHz and is better at going through walls in the home or office. 11ad works at 60GHz and can deliver higher speeds but it doesn't penetrate walls and is useful only within the room " (Which is why products like the TP-Link Talon combine 11ac with ad )Dr Paulraj who is also known in India as the naval officer-leader of the team which developed the country's first indigenous sonar anti submarine defence system, has received the Marconi Prize for his MIMO work - an honour he shares with Internet greats like Google search creator Larry Page, mobile phone inventor Martin Cooper and Internet protocol author Vint Cerf. In recent weeks he became only the second PIO to be elected to the Chinese Academy of Engineering, a position he will take up in June.

Likes

Comments

Le logiciel, libre, est téléchargeable... librement. Deux options s’offrent alors à l’internaute. Soit il peut héberger son cloud sur un serveur à domicile pour le coût de l’achat d’un ordinateur, d’une tablette ou d’un smartphone. Mais il doit alors aussi prendre en compte la charge de l’administration de l’ensemble. Soit, s’il veut éviter cela, il peut disposer d’un serveur virtuel chez un hébergeur comme OVH ou Gandi (également lauréat du Concours d'innovation numérique), en France, en échange d’un abonnement payant. Dans les deux cas, il accède à son espace privé en entrant son nom de domaine, unique, et un mot de passe.


UN BUSINESS MODEL FONDÉ SUR LE SUPPORT
Comme beaucoup d’entreprises du logiciel libre, la jeune société construit son business model autour des outils et du support qu’elle apportera aux grands hébergeurs en B2B2C. "Nous avons de grands partenaires commerciaux comme EDF, La Poste, avec qui nous travaillons sur des projet comme MesInfos synchronisé par la Fing (Fondation Internet Nouvelle Génération), ajoute Tristan Nitot. La base technologique du projet était Cozy Cloud." En attendant une commercialisation envisagée dans le courant de l’année, la start-up va se focaliser sur la finalisation du service et de son interface utilisateur, ainsi que sur le choix de l’hébergeur des serveurs virtuels qu'elle proposera.
Si les constructeurs progressent dans la mise au point des véhicules autonomes, le cadre réglementaire n'est pas encore prêt. Mais les choses bougent, doucement. L'autorité en charge de la sécurité routière aux Etats-Unis, la NTSHA, vient de répondre à des demandes de clarification de Google, qui teste des prototypes de véhicules autonomes dans plusieurs Etats américains. Le courrier datant du 4 février a été publié sur le site de l'organisme public cette semaine.

LE "SELF DRIVING SYSTEM" OFFICIELLEMENT AUX COMMANDES
L'autorité dit, en substance, qu'au regard de la loi, c'est le système informatique du véhicule (le "self driving system") qui fait office de conducteur, tous les occupants humains n'étant que des passagers. "Nous convenons comme Google que ce véhicule n'aura pas de conducteur au sens traditionnel du terme, comme nous l'avons connu dans les 100 dernières années", écrit le régulateur.Cette interprétation ouvre la voie à l'intégration de conducteurs "virtuels" à la réglementation. On s'acheminerait donc vers une adaptation du cadre existant plutôt qu'à une réécriture intégrale des règles. De quoi accélérer considérablement l'arrivée de véhicules autonomes sur les routes américaines, si la vision de la NTSHA est partagée par les autres régulateurs nord-américains.

VERS DES VÉHICULES RÉELLEMENT AUTONOMES
Pour Google, l'enjeu est d'imposer des véhicules 100% autonome dès le départ, et non semi-autonomes, car le géant américain considère que l'intervention humaine est davantage source de danger que le recours à l'intelligence artificielle. A la demande des autorités américaines, il a tout de même dû modifier le design de ses prototypes pour y ajouter un volant et des freins, et permettre la reprise de contrôle du véhicule par un opérateur humain en cas de danger.
Improov est une plate-forme de collaboration en réalité virtuelle pour les professionnels. Développée par l'entreprise française MiddleVR, fondée en 2010, elle permet à plusieurs utilisateurs situés dans différents locaux de travailler ensemble dans un même environnement virtuel, et ce peu importe le périphérique (casques, Caves... ou même en simple visioconférence).

Le produit, dont la version 3 vient de sortir, est avant tout pensé pour la conception 3D, et est compatible avec les fichiers de logiciels comme Catia, Solidworks, 3ds Max, Siemens NX, etc. Il permet également d'afficher un écran virtuel pour continuer à utiliser n'importe quelle application Windows classique durant la session.
La technologie vient de plus en plus en renfort, dans nos vies connectées, pour ne pas oublier des rendez-vous, des anniversaires, ou retrouver le nom d'une chanson. Facebook nous suggère même de temps en temps des "souvenirs marquants" partagés avec d'autres abonnés datant d'il y a 1, 2, 5, 7 ans…

Et si, à l'avenir, les technologies cognitives agissaient comme "mémoire de secours" pour ne plus rien oublier du tout ? Les noms, les mots de passe, son numéro d'immatriculation, l'endroit où l'on a rangé ses lunettes? Un ingénieur d'IBM, James Kozloski, spécialiste de la neuroscience appliquée à l'informatique, a imaginé un système de ce type, et même déposé un brevet, rapporte le site The Atlantic.
Pourtant, prévient-il d'emblée, la mémoire humaine et la mémoire d'un ordinateur ne fonctionnent pas de la même façon. "Les humains n'ont pas de pointeurs ou d'adresses à fouiller pour retrouver des données", rappelle-t-il. En tout cas pour l'instant.
Kozloki planche sur un assistant personnel qui apprend la vie de son utilisateur et peut donc boucher les trous lorsque celui-ci cherche un mot, un nom, une adresse. Une sorte de mémoire auxiliaire, nourrie au machine learning, intégrée dans un terminal à porter sur soi, ou contenue dans un objet de sa maison, dans sa voiture, ou via un capteur sur son lieu de travail. Ce système serait capable de terminer vos phrases avant vous.

Kozloki n'imagine pas un usage très grand public de cette technologie, mais estime qu'elle pourrait aider des personnes âgées ou atteintes de pertes de mémoire, pour ne pas les enfermer dans leur bulle lorsque les premiers symptômes d'une maladie apparaissent. Rien de complètement irréaliste dans ce scénario imaginé il y a quelques années par la série télévisée britannique d'anticipation Black Mirror : Watson, l'intelligence cognitive d'IBM, est déjà intégrée à des bracelets connectés, des produits électroménagers et même… des jouets pour enfants. L'assistant Alexa d'Amazon, contenu dans l'enceinte Echo, écoute aussi son environnement pour apprendre de son utilisateur. Et Samsung a mis au point un système moins perfectionné permettant aux personnes atteinte d'Alzheimer de recevoir des informations contextuelles pour les aider à communiquer. Mais qui est prêt à partager l'intégralité de sa vie, même les moments les plus gênants, intimes, douloureux, avec une intelligente artificielle ?
Dans Her, film primé de l’Oscar du meilleur scénario, un quadra entre deux-âges fait la rencontre de sa vie avec…le système d’exploitation de son ordinateur. Dans cette fable futuriste, Spike Jonze dissèque l’amour au temps du numérique. D’une beauté discrète, le film rappelle les rapports ambigus de l’Homme à ses créations, offrant une version électronique de "Je t’aime, moi non plus".

L’affaire est entendue : entre les humains, les histoires d’amour finissent mal en général. Mais qu’en est-il quand un homme s’amourache de la voix du super système d’exploitation qui, dans un futur poche, le secondera ? Telle est la trame de "Her", le très emballant film de Spike Jonze, à qui l’on doit déjà "Dans la peau de John Malkovich", ou encore le très oubliable "Max et les Maximonstres" (qui a valu une des plus belles siestes cinématographiques à l’auteur de ces lignes).
Théodore Twombly, magnifiquement interprété par Joaquin Phoenix à la moustache près, est un habitant de Los Angeles entre deux âges, en cours de divorce, qui mène une vie finalement proche de celle d’un quadra d’aujourd’hui. A quelques détails près, comme son métier qui consiste à “écrire des lettres” pour le compte de ceux qui ont du mal à exprimer leurs sentiments. Imprimées par des ordinateurs, les lettres garderont l’apparence de lettres manuscrites et personnelles.
Dans l’ultra moderne solitude, comme chantait Alain Souchon, qui est la sienne, Théodore a une vie routinière entre ordinateur au boulot, dans le métro et au dodo (pour des sortes d’aventures érotiques à distance). L’interface a toutefois changé et c’est par la voix que désormais Théodore et ses contemporains commandent à leur smartphone enrichi. Dans la vraie vie du légèrement déprimé Théodore, il y a bien la copine que lui présente un couple ami. Mais dans ce futur proche qui ressemble beaucoup à notre présent, il n’est guère plus facile de rencontrer l’amour avec un grand A, avec ou sans un site de rencontres en ligne.

Likes

Comments

Malgré l’attrait de ces innovations, les clients finaux et les autorités réglementaires restent encore à convaincre de la sûreté d’une voiture connectée et autonome. De ce point de vue, les incidents observés ces derniers mois ne sont pas de nature à rassurer ces acteurs : les vulnérabilités affectant les Jeep Cherokee ont poussé la marque à rappeler 1,4 millions de véhicules[3], situation déjà rencontrée par Toyota et Mercedes. Si ces derniers cas semblent être dus à des erreurs de conception, quel sera l’impact des vulnérabilités logicielles, dont le nombre est passé de 4258 en 2010 à 7038 en 2014[4] ?


Lors d’une expérimentation récente, deux chercheurs sont ainsi parvenus, à 10 kilomètres de distance, à actionner la climatisation, changer de station de radio, accélérer, décélérer, ou encore agir sur la direction du véhicule. Seul prérequis: un ordinateur connecté à Internet. Maîtriser la durée et les coûts des vérifications de sécurité, tout en respectant les délais de commercialisation constituent donc les défis les plus importants des constructeurs de véhicules connectés. En dépit de ces exemples récents, 63%[5] des entreprises considèrent le management des failles de sécurité comme une priorité moyenne ou basse. Encore trop considérée comme un coût à optimiser, la sécurité devrait pourtant devenir un argument de vente puissant dans les années à venir. Pour prendre l’avantage, les constructeurs ont donc intérêt à travailler le plus tôt possible à un modèle de sécurité propre à instaurer une relation de confiance durable avec les acteurs clefs de leur environnement, particulièrement ceux dont dépendent le développement et l’homologation du véhicule.

ANALYSE Pour assouvir ses ambitions bancaires Orange, lorgne sur Boursorama, mais aussi sur les fintech. L'opérateur a déjà pris des participations minoritaires dans trois de ces start-up qui bousculent la finance. Dernière opération en date : un investissement dans le spécialiste tricolore du crowdfunding, KissKissBankBank Technologies.
Orange fait son marché dans le secteur de la fintech : dès que le géant des télécoms flaire une start-up prometteuse, son fonds Orange Digital Venture, créé en janvier 2015 et doté pour la première année d'une enveloppe de 20 millions d'euros, investit.

La structure avait investi en 2015 dans 5 start-up, dont deux jeunes pousses de la finance. Le 12 février 2016, le fonds a annoncé quatre nouvelles prises de participations minoritaires, dont une dans la société de crowdfunding KissKissBankBank Technologies. Le spécialiste du financement participatif vient de boucler un tour de table à 5,2 millions d'euros. Orange était le principal investisseur de cette levée de fonds. Une opération qui confirme les ambitions de l'opérateur historique de devenir un acteur clef du secteur de la finance. Des ambitions révélées début janvier 2016 par l'annonce d'un partenariat avec la banque en ligne Groupama Banque, pour créer d'ici 2017 son propre établissement de crédit sur Internet, Orange Banque. Il négocierait même actuellement avec l'assureur Groupama pour prendre une participation de 65% dans sa filiale bancaire.

Dans le cadre de ce projet, il est logique qu'Orange s'intéresse aux sociétés de crowdfunding, qui sont devenues de vraies alternatives au crédit bancaire pour certaines TPE/PME et pour les particuliers. Ces plates-formes de financement participatif ont permis de collecter 296 millions d'euros en 2015, soit près de deux fois plus qu'en 2014, selon le dernier baromètre de l’association Financement participatif France. Parmi les multiples sociétés de crowdfunding qui existent aujourd'hui sur le marché français, si Orange a investi dans KissKissBankBank Technologies, c'est peut-être parce que l'entreprise présente l'avantage de couvrir, avec ses trois sites, presque tous les champs du financement participatif :
- le don contre don d'abord, avec l'acteur historique fondé en 2009 à Paris, KissKissBankBank, qui permet notamment de financer des projets artistiques
- le prêt solidaire ensuite, avec la plate-forme de prêt sans intérêt entre particuliers Hellomerci créée en avril 2013
- le prêt contre intérêts des particuliers vers les entreprises enfin, avec Lendopolis, lancée en novembre 2014

KissKissBankBank Technologies va profiter de l'argent levé lors de ce nouveau tour de table pour lancer en 2017 une quatrième plate-forme dédiée au crowdequity (investissement par les particuliers dans les entreprises en échange d'actions). Orange s'intéresse aussi à la technologie blockchain. Son pôle d'investissement est entré au capital de la société américaine Chain, qui a levé 30 millions de dollars en septembre 2015 (Visa a également participé au tour de table). La jeune pousse, créée en février 2014 à San Francisco, veut développer pour ses actionnaires une blockchain privée.
C'est cette technologie qui se cache derrière le bitcoin. Elle permet d'inscrire sur un livre de compte virtuel, partagé par les ordinateurs de tous les membres d'un réseau, des informations. Ce réseau peut être public (comme celui du bitcoin), mais aussi privé (réservé à des adhérents triés sur le volet). Si le développement de ce projet par Coin est un succès, Orange pourrait faire transiter facilement, de manière sécurisée, et à bas coût, les actifs financiers de sa future banque d'un compte à l'autre.

… ET SUR LE TRANSFERT DE FONDS EN "CASH TO GOODS"
La troisième fintech débusquée par le géant des télécoms est Afrimarket. Cette start-up fondée à Paris il y a tout juste deux ans permet à des Européens d'envoyer de l'argent à leurs proches directement dans un point de vente partenaires via sa plate-forme en ligne. Ces magasins sont pour l'instant situés dans cinq pays d'Afrique (le Bénin, le Cameroun, la Côte d'Ivoire, le Sénégal et le Togo). Cette activité de transfert d'argent "en cash to goods" pourrait un jour venir compléter celle de son service de paiement et d'envoi de fonds Orange Money, qui a attiré sur le continent africain plus de 15 millions d'utilisateurs depuis son lancement en décembre 2008.
La liste des 30 nouveaux membres du Conseil national du numérique dévoilée par Bercy, la Cnil et la DGCCRF interpellent Facebook pour non-respect de la vie privée, trois priorités numériques pour l'industrie du futur en France… Retrouvez les actus qu'il ne fallait pas louper cette semaine.

Les entreprises classiques n’ont plus la cote. Du Premier Ministre à votre voisine de palier, tout le monde ne jure que par les start-up. Le vocabulaire de la Silicon Valley a envahi notre quotidien, amplifié par des services de communication trop contents de profiter de l’image innovante des jeunes pousses. Mais derrière ce vernis clinquant, la réalité est moins alléchante et cache souvent la naïveté et les faiblesses du "monde d’avant". Des voix s’élèvent pour dire "ras le bol des start-up". La liste des 30 nouveaux membres du troisième CNNum, présidé par Mounir Mahjoubi, nommé le 2 février par François Hollande, vient d'être dévoilée par Bercy. Voici leurs noms augmentés de la fonction qu'ils se donnent sur LinkedIn (lorsqu'ils ont un profil). Facebook aurait-il poussé le bouchon un peu trop loin ? La Cnil et la DGCCRF ont toutes deux interpellé le californien pour non-respect de la vie privée et conditions générales d'utilisation abusives en France. Alors que quelques heures avant, l'Inde a interdit ses services gratuits, le géant du numérique craint sans doute peu les sanctions françaises, mais ne doit pas apprécier cette publicité.

- Les trois priorités numériques de l’Industrie du futur
Le gouvernement a fixé quatre priorité technologiques pour les travaux du plan Industrie du futur lors du premier semestre 2016, dont trois dans le numérique : fabrication additive, cybersécurité et digitalisation de la chaine de valeur.
C'est la NTSHA, l'autorité en charge de la sécurité routière aux Etats-Unis, qui l'a dit : l'ordinateur des Google Car fait bien office de conducteur. Un frein au développement des véhicules autonomes est levé.
Le consortium CTA mené par Numergy est retenu par la Commission européenne comme l’un des fournisseurs de référence de cloud public pour 56 entités européennes. Mais il doit partager le marché avec quatre autres fournisseurs référencés, dont IBM et Microsoft. Zenefits, la licorne américaine de l'insurtech, vient d'essuyer un gros bouillon. Plusieurs commerciaux de l'entreprise ont réalisé des opérations de courtage en assurance sans avoir les agréments nécessaires. La jeune pousse a été placée sous surveillance par les organes de régulation des assurances de plusieurs états américains. Son PDG, Parker Conrad, a été poussé vers la sortie et remplacé par David Sacks, jusque-là directeur des opérations.

Likes

Comments

Insgesamt finden wir, dass das Pixel XL gut in der Hand liegt und sehr hochwertig verarbeitet ist. Der Glaseinsatz auf der Rückseite gefällt uns nicht, die breiten Außenkanten führen zudem zu einem etwas plumperen Aussehen, als es etwa das Oneplus Three oder auch das Nexus 6P haben. Einen Designpreis wird Googles erstes eigenes Smartphone wahrscheinlich nicht gewinnen.Das Display des Pixel XL hat eine Diagonale von 5,5 Zoll und löst mit 2.560 x 1.440 Pixeln auf. Das ergibt eine hohe Pixeldichte von 534 ppi, was zu sehr scharf dargestellten Bildschirminhalten führt. Die Farben des blickwinkelstabilen Bildschirms werden nicht zu intensiv wiedergegeben, obwohl es sich um ein OLED-Display handelt.Das Display des XL-Modells ist 5,5 Zoll groß und hat eine Auflösung von 2.560 x 1.440 Pixeln. (Bild: Martin Wolf/Golem.de) Das Display des XL-Modells ist 5,5 Zoll groß und hat eine Auflösung von 2.560 x 1.440 Pixeln. (Bild: Martin Wolf/Golem.de)

Verglichen mit den Displays des iPhone 7 und 7 Plus - mit die aktuell besten von der Gesamtdarstellung her - wirkt das des Pixel XL weniger warm, erreicht aber den gleichen Eindruck von bedrucktem Papier: Bildschirminhalte, besonders Texte, wirken aufgrund der Schärfe und des Kontrastes stellenweise wie die Seite eines Magazins.Insgesamt gefällt uns das Display des Pixel XL sehr gut, sowohl was die Schärfe betrifft als auch hinsichtlich der Farbwiedergabe. Mit einer durchschnittlichen maximalen Helligkeit von 394 cd/qm ist der Bildschirm auch hell genug, um auch bei Sonnenschein die Inhalte erkennbar darzustellen.Auf der Rückseite ist eine 12,3-Megapixel-Kamera mit Dual-LED-Fotolicht eingebaut. Dank einer Kombination aus Phasenvergleichsfokus und Laser-Fokus stellt das Pixel XL sehr schnell scharf - von der Geschwindigkeit sehen wir kaum einen Unterschied zum Galaxy S7 mit der bisher am schnellsten fokussierenden Smartphone-Kamera. Die Anfangsblende ist mit f/2.0 recht groß, die Pixel haben eine Diagonale von 1,55 µm, was Aufnahmen in dunkleren Umgebungen zugutekommt.

Hier schneidet das Pixel XL besser als das Nexus 6P und auch besser als das iPhone 7 Plus ab: Die Bilder wirken schärfer und haben weniger Bildrauschen und Artefakte. An die Qualität des Galaxy S7 von Samsung kommt das Pixel XL bei Innenraumaufnahmen aber nicht heran.Bei Tageslichtaufnahmen ähneln sich die Bilder des Pixel XL und des Nexus 6P von der Schärfe und den Artefakten her; die Kamera des Pixel XL macht die leicht besseren Bilder, vor allem liegt sie beim Weißabgleich weniger daneben als die Kamera des Vorgängermodells. Das iPhone 7 Plus macht verglichen mit dem Pixel XL die weitaus unschärferen und flaueren Aufnahmen, die qualitativ nicht mithalten können. Mit dem Galaxy S7 gemachte Tageslichtaufnahmen haben weniger Bildrauschen und Artefakte, wirken dafür in den Details allerdings etwas weniger scharf.

Die Frontkamera des Pixel XL hat 8 Megapixel und macht qualitativ gute Bilder. Auch hier setzt Google größere Pixel ein, um mehr Licht einzufangen - sie sind 1,4 µm groß. Die Anfangsblende ist mit f/2,4 allerdings kleiner als die der Hauptkamera. Videos macht die Hauptkamera des Pixel XL in maximal 4K mit einer Bildwiederholungsfrequenz von 30 Bildern pro Sekunde. Zeitlupenaufnahmen lassen sich in Full-HD und 120 Bildern pro Sekunde oder HD und 240 Bildern pro Sekunde anfertigen. Für Videoaufnahmen gibt es eine Stabilisierung, die offenbar elektronisch arbeitet. Die Frontkamera kann Full-HD-Videos aufnehmen.

Insgesamt gefällt uns die Kamera des Pixel XL sehr gut, sie stellt besonders bei Aufnahmen in dunkleren Bereichen eine Verbesserung verglichen mit der des Nexus 6P dar. Besonders gut gefällt uns der sehr schnelle Autofokus, der auf dem gleichen Level wie der des Galaxy S7 liegt. Die Bildqualität stellt einen guten Kompromiss aus Schärfe und Lichtempfindlichkeit dar - ein Trend, der in diesem Jahr verbreitet ist.Trotz der guten Kameraausstattung finden wir einen Punkt etwas verwunderlich: Das Pixel XL ist zusammen mit dem kleineren Pixel Googles erstes komplett in Eigenregie gebautes Smartphone. Entsprechend könnte man annehmen, dass das Unternehmen zeigen möchte, was aktuell technisch möglich ist; dass vor diesem Hintergrund kein Project-Tango-Kamerasystem eingebaut ist, können wir nicht recht verstehen.

Lenovo schafft es hingegen voraussichtlich noch vor Weihnachten 2016, sein Smartphone Phab 2 Pro mit Project-Tango-Kamera in den Handel zu bringen. Ein erstes Google-Smartphone mit Project Tango wäre ein Zeichen von Google gewesen, das der Verbreitung der Technik sicherlich geholfen hätte.Unterhalb der rückseitigen Kamera ist ein Fingerabdrucksensor eingebaut, den Google mit "Pixel Imprint" bezeichnet. Dieser entsperrt das Smartphone und ermöglicht zusätzlich noch, die Benachrichtigungsleiste mit einem Wisch nach unten über den Sensor zu öffnen. Das ist aufgrund der Größe des Pixel XL hilfreich, andere Hersteller bieten das bei ihren großen Smartphones ebenfalls an, beispielsweise Huawei. Verglichen mit anderen Fingerabdrucksensoren ist der des Pixel XL langsamer: Das iPhone 7, Galaxy S7 oder auch das P9 von Huawei erkennen unsere Finger schneller.

Enttäuscht waren wir vom einzelnen Lautsprecher des Pixel XL. Er klingt etwas dünn, die Bässe sind kaum wahrnehmbar, zudem ist die maximale Lautstärke nicht sonderlich hoch. Andere Hersteller schaffen es mittlerweile, auch mit nur einem Lautsprecher einen weitaus besseren Klang zu erreichen, geschweige denn mit zweien.Ausgeliefert wird das Pixel XL mit Android in der neuen Version 7.1; die Vorversion 7.0 hatte Golem.de bereits ausführlich getestet. Aufgrund des verwendeten Linux-Kernels 3.18 wird das Pixel XL maximal zwei Jahre lang Updates erhalten plus ein zusätzliches Jahr Sicherheitspatches. Wer sich das Pixel oder das Pixel XL bei der Telekom kauft, bekommt die Updates verspätet, zudem ist der Bootloader nicht entsperrbar.

Der neue Sprachassistent Google Assistent wird exklusiv auf den Pixel-Smartphones installiert. Er ist erreichbar, indem wir lange auf die Home-Taste drücken oder ihn mit dem Sprachbefehl "OK Google" aufrufen. Er ersetzt die Now-on-Tap-Funktion. Deren Ergebnisse werden weiterhin angezeigt, unterhalb des Eingabefeldes des aufgerufenen Assistenten.Der Google Assistant ist momentan in den Sprachen Deutsch und Englisch verfügbar, wobei es Unterschiede zwischen den beiden Sprachversionen gibt: Die englische kann in unseren Tests mehr. Das betrifft sowohl den Umfang der Aufgaben, die der Assistent erledigen kann, als auch die kontextuellen Nachfragen.

So können wir uns beispielsweise vom englischen Assistenten gezielt Fotos anzeigen lassen, die wir zu einer bestimmten Zeit an bestimmten Orten gemacht haben, ebenso Fotos von bestimmten Motiven. Das setzt voraus, dass Nutzer ihre Fotos über Google Fotos synchronisieren; die Bilder werden dann von einem Deep-Learning-Algorithmus analysiert und automatisch kategorisiert.Die Synchronisation von Bildern und Videos mit Googles eigenem Fotodienst erfolgt beim Pixel XL übrigens in unveränderter Originalgröße. Generell ist es über die Google-Fotos-App auch auf anderen Smartphones möglich, seine Fotos ohne Anrechnung auf das Google-Drive-Speichervolumen synchronisieren zu lassen: Ist die Auflösung unter 16 Megapixel, verkleinert Google die Fotos automatisch, verspricht aber immer noch eine hohe Qualität. Mit dem Pixel XL aufgenommene Bilder werden ohne Verkleinerung oder Optimierung gespeichert, ohne dass sich dies auf das Speichervolumen auswirkt.

Fragen wir den englischen Assistenten nach Bildern aus Florida von diesem Jahr, wird uns eine Auswahl angezeigt. Weitere Bilder gibt es, nachdem wir einen Link zur Fotos-App anklicken. Fragen wir nach Bildern von Chase, dem Bürohund, erscheinen auch diese zuverlässig. Anders sieht es aus, wenn wir den Google Assistant auf Deutsch eingestellt haben: Dann findet der Helfer überhaupt keine Fotos oder sucht wahllos welche aus dem Internet heraus.Auch andere Sprachbefehle versteht der Assistent auf Englisch deutlich besser beziehungsweise sind sie auf Englisch überhaupt erst möglich. Die Aufforderung "Zeige mir italienische Restaurants im Umkreis von 2 Kilometern!" versteht der deutsche Google Assistant nicht, der englische hingegen schon. Beim deutschsprachigen Assistenten sind wir mit dem Sprachkommando "Zeige mir Restaurants!" erfolgreich. Die kontextuell gestellte Nachfrage danach, wie wir zum nächstgelegenen Restaurant kommen, verstehen beide Sprachversionen gut.

Zu den weiteren möglichen Sprachbefehlen gehören Fragen nach Terminen, nach Sportereignissen, dem Wetter oder allgemeinen Fakten - Dinge, die Google Now ebenfalls beherrscht. Auch ein Timer lässt sich über den Assistenten stellen, ebenso lassen sich Apps starten oder Erinnerungen anlegen. Zudem können E-Mails, SMS oder auch Whatsapp-Nachrichten mit Hilfe des Assistenten diktiert und versendet werden.Der englische Assistent bietet anders als der deutsche eine Daily-Briefing-Funktion: Begrüßen wir ihn mit "Good morning", erhalten wir Informationen zum Wetter und zu den Terminen des Tages. Am Ende wird, so wir es wünschen, noch eine ungefähr fünfminütige Nachrichtensendung aus dem Radio abgespielt. Hier können wir die Quelle wählen oder das Resümee auch abstellen. Auf Deutsch fällt die Reaktion deutlich knapper aus: "Was kann ich für dich tun?"

Likes

Comments