Categorie
TvTech

Cooler Master MasterPulse – Recensione

MasterPulse sono le nuove cuffie di Coller Master per i fan delle basse frequenze.

Tag: Cooler MasterRecensione

Autore: TVtech – Video e Web Tv sulla tecnologia, sull’informatica e sul mondo ICT – Ultimi Video

Categorie
HardwareSoftware

Portatili HP con schermo Sure View per tenere lontani occhi indiscreti

HP, in collaborazione con 3M, ha sviluppato un nuovo schermo destinato all’integrazione nei portatili, che offre gli strumenti per prevenire ciò che la società definisce ”visual hacking”, ovvero, per dirla più semplicemente, l’attività di chi dà una sbirciatina, non sempre desiderata, al contenuto dello schermo di un PC che non gli appartiene. HP inizierà a rendere disponibili i portatili con schermo Sure View a partire dal settembre: i primi due modelli saranno gli Elitebook 840 e 1040, appartenenti alla linea business del produttore statunitense. 

hp spy

Dal punto di vista tecnico si tratta di un display con un filtro polarizzato integrato: osservato frontalmente, la sua luminosità è più bassa rispetto a quella dei display sprovvisti di filtro, ma il contenuto dello schermo appare completamente oscurato non appena l’angolo di visione si sposta lateralmente oltre i 10 gradi. Un accorgimento che dovrebbe quindi consentire di tenere efficacemente lontani gli sguardi indesiderati, utilizzando una tecnica già disponibile sotto forma di filtri polarizzati stand-alone applicabili allo schermo. Il vantaggio della soluzione proposta da HP sta, naturalmente, nell’integrazione del filtro nel display. 

Aspetto importante da sottolineare riguarda la possibilità di attivare e disattivare del tutto la modalità Sure View con una semplice combinazioni di tasti (tasto funzione + F2). Ciò permette di gestire in assoluta libertà il filtro ‘anti spioni’, attivandolo solo quando serve e di ottenere la massima leggibilità quando l’attivazione del filtro viene giudicata non necessaria. Gli ambiti di impiego dei portatili con schermo Sure View sono molteplici, anche se, probabilmente, ad apprezzarlo sarà in primo luogo l’utenza aziendale: ad esempio dirigenti che gestiscono informazioni particolarmente delicate. Anche chi è particolarmente sensibile al tema della privacy – in ogni sua declinazione – potrebbe apprezzare la possibilità di oscurare lo schermo nei luoghi pubblici. 

hp spy

Gli schermi Sure View saranno disponibili sia con interfaccia tattile, sia nella versione non-touch:  gli Elitebook 840 e 1040 con display Sure View touch verranno distribuiti a partire dal settembre, mentre le varianti non touch a partire da ottobre. In futuro, HP potrebbe integrare la tecnologia in altri portatili e non solo. Il produttore sta infatti valutando la possibilità di produrre schermi Sure View per sistemi desktop da impiegare in luoghi pubblici. 

Controindicazioni? Al momento la principale è legata alla possibilità di integrare la tecnologia Sure View esclusivamente con i pannelli TN – come ricorda Ars Technica – che hanno, tendenzialmente, angoli di visione ed un’accuratezza cromatica inferiore agli schermi IPS. HP, a tal proposito, ha confermato di essere al lavoro per realizzare pannelli Sure View IPS ma non è ancora possibile stabilire con certezza in base a quali tempistiche.

Si tenga presente, in conclusione, che le informazioni appena riportate sulla disponibilità dei primi portatili HP con schermo Sure View sono relative al mercato statunitense. Si attendono ulteriori conferme su prezzo e disponibilità per il mercato europeo e italiano.

Autore: Le news di Hardware Upgrade

Categorie
Economia

CINA: la grande bolla del debito ma Pechino ha le spalle larghe

bolla-economia-cinese-pechino

In passato ho più volte preso in esame il fenomeno economico cinese, proprio per la sua particolarità ma anche per la sua importanza. Se vi interessa l’argomento, fatevi un ripassino, troverete cliccando QUI molti spunti interessanti che vi aiuteranno a ponderare meglio lo stato di salute di Pechino. In uno di questi post spiegavo lo “schema Ponzi” che ha ingabbiato e condannato la Cina ad una crescita economica che deve essere virtuosa. Confermo quanto scritto prima, ci mancherebbe, ma in questo post provo invece a veder le cose anche da un’altro punto di vista, meno catastrofista e più ottimista, lasciando poi ad ognuno di voi la possibilità di valutare quale delle due strade sia la più possibilistica: quella del grande crollo causa bolla del credito, oppure quella della sopravvivenza, grazie alle spalle larghe del grande paese cinese.

La bolla del debito continua a gonfiarsi…

La Cina rappresenta da sempre un’incognita. Un paese dalle grandi potenzialità (anche anagrafiche) dove però ci sono tanti punti di incertezza. Una crescita virtuosa che è stata però alimentata in modo sconsiderato dal debito.
Tanto che ora il debito rappresenta per l’economia di Pechino un vero problema. Eccovi aggiornato il rapporto tra il debito ed il PIL, con una suddivisione per categorie.

cina-debito-aggregato-2016

Chiaro che è il segmento corporate, quello che è cresciuto di più, ad avere una maggiore esposizione verso la leva del debito: Senza poi dimenticare che buona parte di queste imprese sono di proprietà statale.
Il rapporto con il PIL è certamente preoccupante, ma volumetricamente, poi, il problema sembra meno grosso, sopratutto se paragonato ad altri paesi come USA e Giappone. Quello che però sta preoccupando non poco è la velocità di crescita dello stesso.

debito-pro-capite-vs-rapporto-debitoPIL

Il fatto che molto di questo debito corporate sia però in capo ad aziende statali, secondo me, non è un fattore di poco conto, in quanto la Cina è un paese che ha enormi disponibilità pubbliche, molto più di tanti altri grandi player globali….

debito-vs-liquidità

…senza poi dimenticare che le stesse aziende hanno a loro disposizione anche tanti asset da poter liquidare proprio per ottenere il rimborso del debito.

asset-vs-pil-gdp-china-cina

Grafici by Bloomberg

Questa rapida infografica vuole servire a stimolare l’attenzione del lettore. Il problema “Cina” è sicuramente non di poco conto. La necessità di mantenere un tasso di crescita del PIL pari quantomeno ad un 6% (per poter compensare e ripagare la crescita del debito) è sicuramente fondamentale ma, se questi tassi di crescita non dovessero essere mantenuti, ci sono i margini per una “modifica del tessuto economico” e non di un “fallimento di sistema”. Questa differenza secondo me rischia di essere fondamentale, in quanto nel primo caso ci sarebbe sicuramente un momento anche traumatico ma poi una ripartenza dell’economia, magari con più equilibrio e meno virtuosismo. Nel secondo caso, invece, significherebbe subire gli effetti dello scoppio di una bolla senza precedenti.
E se la Cina quindi rappresenta un “problema relativo” è sicuramente un buon segnale per il sistema economico, in quanto l’onda d’urto di una crisi di Pechino sarebbe stata difficile da gestire anche per le altre banche centrali.
Questo evento poteva rappresentare il vero “cigno nero” dei mercati. Dopo questa rapida analisi non voglio dire che la Cina sia il mondo perfetto (anche perchè abbiamo sempre un problema di visibilità dei dati macroeconomici del Celeste Impero), ma forse, al momento, i problemi possono essere visti altrove.

Riproduzione riservata

STAY TUNED!

Danilo DT

(Clicca qui per ulteriori dettagli)
Questo post non è da considerare come un’offerta o una sollecitazione all’acquisto. Informati presso il tuo consulente di fiducia. Se non ce l’hai o se non ti fidi più di lui,contattami via email ([email protected]). NB: Attenzione! Leggi il disclaimer (a scanso di equivoci!)
(Se trovi interessante i contenuti di questo articolo, condividilo ai tuoi amici, clicca sulle icone sottostanti, sosterrai lo sviluppo di I&M!)

VN:F [1.9.20_1166]

please wait…

Rating: 10.0/10 (2 votes cast)

CINA: la grande bolla del debito ma Pechino ha le spalle larghe, 10.0 out of 10 based on 2 ratings

Autore: Finanza.com Blog Network Posts

Categorie
HardwareSoftware

Hot Chips 2016: NVIDIA Discloses Tegra Parker Details

At CES 2016 we saw that DRIVE PX2 had a new Tegra SoC in it, but to some extent NVIDIA was still being fairly cagey about what was actually in this SoC or what the block diagram for any of these platforms really looked like. Fortunately, at Hot Chips 2016 we finally got to see some details around the architecture of both Tegra Parker and DRIVE PX2.

Starting with Parker, this is an SoC that has been a long time coming for NVIDIA. The codename and its basic architectural composition were announced all the way back at GTC in 2013, as the successor to the Logan (Tegra K1) SoC. However Erista (Tegra X1) was later added mid-generation – and wound up being NVIDIA’s 20nm generation SoC – so until now the fate of Parker has not been clear. As it turns out, Parker is largely in line with NVIDIA’s original 2013 announcement, except instead of a Maxwell GPU we get something based off of the newer Pascal architecture.

But first, let’s talk about the CPU. The CPU complex has been disclosed as a dual core Denver 2 combined with a quad core Cortex A57, with the entire SoC running on TSMC 16nm FinFET process. This marks the second SoC to use NVIDIA’s custom-developed ARM CPU core, the first being the Denver version of the Tegra K1. Relative to K1, Parker (I suspect NVIDIA doesn’t want to end up with TP1 here) represents both an upgrade to the Denver CPU core itself, and how NVIDIA structures their overall CPU complex, with the addition of a quartet of ARM Cortex-A57 cores joining the two Denver 2 cores.

The big question for most readers, I suspect, is about the Denver 2 CPU cores. NVIDIA hasn’t said a whole lot about them – bearing in mind that Hot Chips is not an exhaustive deep-dive style architecture event – so unfortunately there’s not a ton of information to work with. What NVIDIA has said is that they’ve worked to improve the overall power efficiency of the cores (though I’m not sure if this factors in 16nm FinFET or not), including by implementing some new low power states. Meanwhile on the performance side of matters, NVIDIA has confirmed that this is still a 7-wide design, and that Denver 2 uses “an improved dynamic code optimization algorithm.” What little that was said about Denver 2 in particular was focused on energy efficiency, so it may very well be that the execution architecture is not substantially different from Denver 1’s.

With that in mind, the bigger news from a performance standpoint is that with Parker, the Denver CPU cores are not alone. For Parker the CPU has evolved into a full CPU complex, pairing up the two Denver cores with a quad-core Cortex-A57 implementation. NVIDIA cheekily refers to this as “Big + Super”, a subversion of ARM’s big.LITTLE design, as this combines “big” A57 cores with the “super” Denver cores. There are no formal low power cores here, so when it comes to low power operation it looks like NVIDIA is relying on Denver.

That NVIDIA would pair up Denver with ARM’s cores is an interesting move, in part because Denver was originally meant to solve the middling single-threaded performance of ARM’s earlier A-series cores. Secondary to this was avoiding big.LITTLE-style computing by making a core that could scale the full range. For Parker this is still the case, but NVIDIA seems to have come to the conclusion that both responsiveness and the total performance of the CPU complex needed addressed. The end result is the quad-core A57 to join the two Denver cores.

NVIDIA didn’t just stop at adding A57 cores though; they also made the design a full Heterogeneous Multi-Processing (HMP) design. A fully coherent HMP design at that, utilizing a proprietary coherency fabric specifically to allow the two rather different CPU cores to maintain that coherency. The significance of this – besides the unusual CPU pairing – is that it should allow NVIDIA to efficiently migrate threads between the Denver and A57 cores as power and performance require it. This also allows NVIDIA to use all 6 CPU cores at once to maximize performance. And since Parker is primarily meant for automotive applications – featuring more power and better cooling – unlike mobile environments it’s entirely reasonable to expect that the design can sustain operation across all 6 of those CPU cores for extended periods of time.

Overall this setup is very close to big.LITTLE, except with the Denver cores seemingly encompassing parts of both “big” and “little” depending on the task. With all of that said however, it should be noted that NVIDIA has not had great luck with multiple CPU clusters; Tegra X1 featured cluster migration, but it never seemed to use its A53 CPU cores at all. So without having had a chance to see Parker’s HMP in action, I have some skepticism on how well HMP is working in Parker.

Overall, NVIDIA is claiming about 40-50% more overall CPU performance than A9x or Kirin 950, which is to say that if your workload can take advantage of all 6 CPUs in the system then it’s going to be noticeably faster than two Twister CPUs at 2.2 GHz. But there’s no comparison to Denver 1 (TK1) here, or any discussion of single-thread performance. Though on the latter, admittedly I’m not sure quite how relevant that is for NVIDIA now that Parker is primarily an automotive SoC rather than a general purpose SoC.

Outside of the CPU, NVIDIA has added some new features to Parker such as doubling memory bandwidth. For the longest time NVIDIA stuck with a 64-bit memory bus on what was essentially a tablet SoC lineup, which despite what you may think from the specs worked well enough for NVIDIA, presumably due to their experience in GPU designs, and as we’ve since learned, compression & tiling. Parker in turn finally moves to a 128-bit memory bus, doubling the aggregate memory bandwidth to 50GB/sec (which works out to roughly LPDDR4-3200).

More interesting however is the addition of ECC support to the memory subsystem. This seems to be in place specfically to address the automotive market by improving the reliability of the memory and SoC. A cell phone and its user can deal with the rare bitflip, however things like self-driving vehicles can’t afford the same luxury. Though I should note it’s not clear whether ECC support is just some kind of soft ECC for the memory or if it’s hardwired ECC (NVIDIA calls it “in-line” DRAM ECC). But it’s clear that whatever it is, it extends beyond the DRAM, as NVIDIA notes that there’s ECC or parity protection for “key on-die memories”, which is something we’d expect to see on a more hardened design like NVIDIA is promoting.

Finally, NVIDIA has also significantly improved their I/O functionality, which again is being promoted particularly with the context of automotive applications. There’s more support for extra cameras to improve ADAS and self-driving systems, as well as 4Kp60 video encode, CAN bus support, hardware virtualization, and additional safety features that help to make this SoC truly automotive-focused.

The hardware virtualization of Parker is particularly interesting. It’s both a safety feature – isolating various systems from each other – while also allowing for some cost reduction on the part of the OEM as there is less need to use separate hardware to avoid a single point of failure for critical systems. There’s a lot of extra logic going on to make this all work properly, and things like running the dual Parker SoCs in a soft lockstep mode is also possible. In the case of DRIVE PX2 an Aurix TC297 is used to function as a safety system and controls both of the Parker SoCs, with a PCI-E switch to connect the SoCs to the GPUs and to each other.

Meanwhile, it’s interesting to note that the GPU of Parker was not a big part of NVIDIA’s presentation. Part of this is because Parker’s GPU architecture, Pascal, has already launched in desktops and is essentially a known quantity now. At the same time, Parker’s big use (at least within NVIDIA) is for the DRIVE PX2 system, which is going to be combining Parker with a pair of dGPUs. So in the big picture Parker’s greater role is in its CPUs, I/O, and system management rather than its iGPU.

Either way, NVIDIA’s presentation confirms that Parker integrates a 256 CUDA Core Pascal design. This is the same number of CUDA Cores as on TX1, so there has not been a gross increase in GPU hardware. At the same time moving from TSMC’s 20nm planar process to their 16nm FinFET process did not significantly increase transistor density, so there’s also not a lot of new space to put GPU hardware. NVIDIA quotes an FP16 rate of 1.5 TFLOPs for Parker, which implies a GPU clockspeed of around 1.5GHz. This is consistent with other Pascal-based GPUs in that NVIDIA seems to have invested most of their 16nm gains into ramping up clockspeeds rather than making for wider GPUs.

As the unique Maxwell implementation in TX1 was already closer to Pascal than any NVIDIA dGPU – in particular, it supported double rate FP16 when no other Maxwell did – the change from Maxwell to Pascal isn’t as dramatic here. However some of Pascal’s other changes, such as fine-grained context switching for CUDA applications, seems to play into Parker’s other features such as hardware virtualization. So Pascal should still be a notable improvement over Maxwell for the purposes of Parker.

Overall, it’s interesting to see how Tegra has evolved from being almost purely a mobile-focused SoC to a truly automotive-focused SoC. It’s fairly obvious at this point that Tegra is headed towards higher TDPs than what we’ve seen before, even higher than small tablets. Due to this automotive focus it’ll be interesting to see whether NVIDIA starts to integrate advanced DSPs or anything similar or if they continue to mostly rely on CPU and GPU for most processing tasks.

Autore: AnandTech

Categorie
Gossip

One Direction: Band-Reunion erst nach 10 Jahren – sagt der hier

Fans der Boyband One Direction (bestehend aus Niall Horan, Liam Payne, Harry Styles und Louis Tomlinson) beschäftigt seit ihrer offiziellen Pause nur eine Frage: wann tun sich die Jungs wieder zusammen?

One Direction: Band-Reunion erst nach 10 Jahren - sagt der hier

Geht es nach dem langjährigen irischen Entertainment-„Experten“ und Impresario Louis Walsh (64), früherer Manager von Boybands wie Westlife und Boyzone, lautet die Antwort: niemals oder wenn überhaupt in zehn Jahren! Das verkündete das Jurymitglied der britischen Ausgabe von ‚X Factor’ im ‚Telegraph’. Erfahrung in diesem Bereich kann man dem 64-Jährigen Boyband-Manager jedenfalls nicht absprechen. Schließlich fand One Direction 2010 – mit Hilfe von Jurymitglied und Musikproduzent Simon Cowell (56) – genau bei ‚X Factor’ zusammen.

Das bezeichnete Walsh dann auch ganz offen als „das finanziell Beste was aus [der Show] hervorging.“ Und genauso klar formulierte er seine Überzeugung, was eine mögliche Reunion der Band in der Zukunft anbetrifft. Er verkündete nämlich: „Es wird nicht passieren [.]. Nein, definitiv nicht.“ Und er ergänzte: „Es ist vorbei, sie hatten ihren Lauf, überall. Es ist erledigt und es war eine tolle Karriere.“

Auf die Frage, ob er mit einer Wiedervereinigung von One Direction Mitte 2017 rechne – so derzeit einige Gerüchte – relativierte er seine Aussage aber etwas. Da erklärte er nämlich: „Nein, vielleicht in zehn Jahren.“ Der 64-Jährige äußerte auch unverblümt seine Ansicht über einige Künstler, die aus der Castingshow hervorgehen. Er stellte fest: „Wir kreieren Monster im Musikbusiness – sie werden nur berühmt, weil sie in der Show waren und wir ihnen diese Songs gaben. Sie sind glückliche F….. aber manche entwickeln ein Anspruchsdenken und glauben den Hype. Zu viele Künstler scheinen zu vergessen, woher sie kommen.“ Deutliche Worte!

Was One Direction anbetrifft, hätten auch da einige den Rummel geglaubt, so Louis Walsh weiter. PR-Leute, Agenten und Manager wollten ihnen zudem nicht widersprechen, weil sie so viel Geld an ihnen verdienten. Nachdem ganz offensichtlich alle vier jungen Herren eine Solo-Karriere im Auge haben, können sie ja damit beweisen, dass sie es wirklich „drauf haben“…(CS)

Foto: WENN.com

Autore: klatsch-tratsch.de