RSS PaginaDeMediaPCTECH

Ce a pățit Intel?

Problemele continuă

Intel a trântit o bombă săptămâna aceasta. În esență, ne-a spus că nu va lansa nici un procesor de desktop construit pe un proces nou mai devreme de 2023. Zvonurile de acum câteva luni, conform cărora că vom vedea unul care să nu folosească 14nm+++(+++++(++++++)) abia spre finalul lui 2021, erau de-a dreptul optimiste prin comparație. Suntem în situația în care vom avea pe piață procesoare AMD construite deja pe a doua generație de 5 nanometri de la TSMC, când Intel încă mai livrează procesoare pe procesul său de 14 nm. Cum?

Cum a ajuns Intel în această situație? Cum a ajuns Intel de la a fi vârful de lance la coada de la mătură? Cum a ajuns Intel să fie abandonat de Apple? Cum a ajuns Intel să aibă în acest moment un preț de 50 de dolari la acțiuni, în timp ce AMD are aproape 70? Este o poveste lungă ce începe cu ceva tipic pentru Intel, trufie.

Haideți să călătorim puțin în trecut, până în vremurile bune, pentru a putea înțelege mai bine ce a pierdut Intel. De la ce nivel a căzut, și de ce îi va fi greu să recapete teren.

Anul trecut

În acest articol mă voi referi la generațiile de procesoare Intel cu numele lor de cod, nu cu numărul de serie. Puteți folosi lista de mai jos pentru ceva mai multă claritate:

  • Sandy Bridge-2000
  • Ivy Bridge-3000
  • Haswell-4000
  • Haswell Refresh/Devil’s Canyon – 4000
  • Broadwell – 5000 (doar un singur procesor)
  • Broadwell-E – 6000X
  • Skylake – 6000
  • Kaby Lake – 7000
  • Cannon Lake – 8000  (doar un singur procesor)
  • Kaby Lake Refresh – 8000U
  • Coffee Lake  – 8000
  • Coffee Lake Refresh – 9000
  • Comet Lake – 10000
  • Ice Lake – 10000G71F4G36ZXProbabil

Acum 6-7 ani, Intel era pe val. Pe desktop, singurul motiv pentru care ai fi luat atunci un procesor AMD era dacă aveai nevoie de ceva ieftin, ceva foarte ieftin. Poate dacă lucrai cu mașini virtuale pe Linux, mai avea ceva utilitate acolo, în anumite cazuri. Sau dacă nu aveai de gând să cumperi o placă video, caz în care un APU era mai breaz, per total, ca un procesor Core fără o placă video dedicată. În rest, Intel era singura soluție. Pe partea de servere, AMD nu mai exista. Opteron era mort. Apple se bucura de o revenire pe partea de desktop și stații de lucru, mulțumită în mare parte procesoarelor Intel. Era bine să fii acționar al companiei, era bine să fii un director al companiei. Totul funcționa.

Ce frumos era.

Intel avea pus la punct un sistem foarte bine gândit pentru dezvoltarea procesoarelor sale. Avea Tick-Tock. Nu-l confundați cu chestia contemporană ce poartă un nume similar. În sistemul Tick-Tock, diversele divizii ale companiei lucrau în mod constant la îmbunătățirea tehnologiei prin salturi alternative. Mai întâi făceau saltul pe partea tehnologiei de producție. Spre exemplu, treceau de la 32nm la 22 nm cu Tick. Acest salt ducea la eficiență mai bună, consum redus, viteză ceva mai mare, frecvențe mai bune, pur și simplu prin micșorarea unui procesor existent. Apoi venea Tock, saltul arhitectural. Era aceeași tehnologie de fabricare, dar folosită pentru a construi un procesor total diferit, aducând îmbunătățiri la instrucțiuni, tranzistori mai mulți, tehnologii noi și toate cele. Era un sistem ce a funcționat excepțional pentru 7 ani de zile. De la Core 2 Duo până la Haswell, procesoarele Intel au dominat mulțumită acestui plan de dezvoltare continuă, la care au lucrat diversele echipe ale companiei din lumea întreagă. Astfel am obținut excelenta serie Sandy Bridge, ce nu doar că avea performanță superbă din start, dar avea procesoare ce suportau atât de bine overclock, încât chiar puteau atinge 5GHz. La o asemenea frecvență, pur și simplu nu aveai nevoie să schimbi un astfel de procesor până prin 2017. O asemenea longevitate este de nedescris. Erau oarecum procesoare prea bune, motiv pentru care seria Ivy Bridge nu suporta overclock la fel de bine, fiind înlocuită substanța folosită la lipirea capacului de pastila procesorului cu ceva care pur și simplu nu mai permite atingerea acestor frecvențe. Ce conta? Ce alternative aveai? Un FX 9000 la 5GHZ care n-ar avea performanța unui i7 la 3.5 GHz, dar care consuma curent de risca să ardă plăci de bază? Intel era pe val.

Apoi cineva a strănutat.

Prin 2014 trebuia să fie lansat Broadwell, varianta e 14 nm a lui Haswell. Încă un cui în sicriul procesoarelor FX și a companiei AMD în general. Dar n-a sosit. Bine, „technically”, Intel a lansat atunci câteva procesoare de 6W folosite la mai nimic. Dar restul? Unde era restul? Restul nu era. Procesoarele nu au putut fi produse pentru că au fost probleme pe partea de Tick. Procesul de 14 nanometri nu funcționa așa cum trebuie. Nu avea randamentul necesar. Așa că în loc să ne ofere procesoare noi, Intel a relansat Haswell, i-a pus un „Refresh” în coadă și numele de marketing Devil’s Canyon. În acest mod a stricat Tick-Tock, dar compania încă nu dorea să renunțe la acest concept, așa că l-a mai păstrat pentru o generație. Abia un an mai târziu au început să apară modele Broadwell, dar în mare parte doar pentru laptop-uri. Pe partea de desktop am primit un singur procesor Broadwell normal, iar sectorul HEDC și-a primit Broadwell-E-ul tocmai prin 2016.

Din moment ce procesul de 14 nanometri era gata, echipa de la Intel care lucra la următoarea generație, Skylake, deja își terminase treaba. Ca urmare, ce rost mai avea să lanseze i3-uri, i5-uri și i7-uri ce vor sta pe piață poate două luni până ce vor fi înlocuite? Așa că în 2015 a sosit Skylake, cu promisiunea că lucrurile vor reveni la normal, că ce întârzieri au fost pe partea de 14 nanometri nu se vor răsfrânge pe procesul de 10 nanometri.

Da, totul părea bine și frumos. „Business as usual”, după cum ar spune americanul. Americanul acela fiind Brian Krzanich, fostul CEO (aproximativ Director General) al companiei.

Dar totul nu era bine și frumos.

intel tick tock
A durat doar câteva zile

Tick-Tock a fost abandonat în 2016. Intel nu putea să producă nici un procesor pe 10 nanometri la timp așa că acest sistem nu mai era utilizabil. În locul său a dezvăluit ceva nou: Process-Architecture-Optimization. Practic, a adăugat un pas nou, unul de rafinare al unei arhitecturi existente pe un proces de producție existent. O gâdilare fistichie. A făcut, retroactiv, Haswell Refresh o parte dintr-un mare plan intenționat făurit pentru a realiza procesoare mai bune, nu o consecință a eșecului. Astfel aveam Broadwell, aveam Skylake, iar după un an de zile urma să apară Kaby Lake, ca un ultim răsuflu al procesului de 14 nanometri. După el trebuia să sosească în sfârșit Cannon Lake, cu ai săi 10 nanometri îndelung așteptați. Din păcate, Process-Architecture-Optimization a rămas doar pe hârtie, transformându-se în Process-Architecture-Optimization-Optimization-Optimization-Optimization-Optimization-Optimization.

Însă 2017 a fost un an complicat pentru Intel. Compania avea planuri mari. Planuri de extindere în domenii unde n-a mai dat târcoale de mult, în domenii cu totul noi, în domenii pentru care va avea nevoie de oameni cu experiență. Dorea să își facă o placă video dedicată, atât pentru gaming cât și pentru aplicații de HPC și AI. Dorea să se extindă pe sectorul de Machine Learning. Dorea vrute și nevrute, dar existau două mici probleme, ce aveau în curând să devină trei, iar apoi patru, iar apoi cinci, urmat de șase și în cele din urmă de șapte… în total, să zicem zece.

Prima problemă era că AMD și-a scos capul din nisip și a lansat o serie de procesoare decente. Atât de decente încât Intel a început să arunce tot felul de declarații, cum că nu ar fi decât niște nuclee lipite unul de altul, nu procesoare adevărate. Cum că AMD n-ar fi demn de încredere în longevitatea platformei sale. Lucruri pe care Intel va ajunge să le regrete, dacă o companie cu un trecut atât de pestriț ar putea să simtă regret atunci când face exact aceleași lucruri, ce din senin nu mai sunt rele. Cu diferența că în loc să lanseze patru procesoare pe același socket, Intel urma să lanseze patru socket-uri pentru același procesor.

A doua problemă era procesul de 10 nanometri în sine. Era defect. Era pur și simplu defect. Din start nu avea cum să funcționeze, pentru că Intel încercaseră să abordeze problema într-un mod ce avea cum să aibă randament la o scară atât de mică. Nu puteau să suprapună, fără defecte, pe cât de multe straturi au vrut în cadrul procesului de litografie. Trebuiau să folosească metode noi de imprimare a circuitelor, în loc să le păstreze pe cele vechi. Apoi mai era și problema materialelor folosite, ce nu se comportau grozav. În cele din urmă, ca să dovedească investitorilor că procesul de 10nm nu era o glumă proastă, a fost lansat un singur procesor, i3- 8121U. A fost folosit la un model de NUC pe care nu prea l-a comercializat la scară largă, din moment ce nu putea să facă procesoare pentru el decât în numere foarte mici. Dar era acolo. Investitorii nu aveau cum să se supere, nu? Nu?

Mai țineți minte când Intel credea că va rămâne în frunte.

De la imposibilitatea de a face procesoare pe 10 nanometri, Intel dădea acum de problema cu numărul 3. Vedeți voi, chiar dacă nu mai era folosit Tick-Tock pentru procesoare, logistica întregii companii încă mai funcționa pe acest principiu. Așa că atunci când erau deschise linii de producție pentru un proces nou, cel vechi era folosit pentru lucruri precum chipset-urile plăcilor de bază. Dar din imposibilitatea de a deschide noi linii de producție, acum totul era produs pe 14 nanometri. Plăci de bază, procesoare de servere, procesoare de laptop, procesoare de PC. Nu era loc pentru toate. Așa că producția unora a trebuit întreruptă, ducând la creșterea în preț a procesoarelor de prioritate scăzută, cele low-end de desktop, precum i5-urile ieftine. Când asta nu era de ajuns, Intel a început să producă chipset-uri pentru plăci de bază pe 22 de nanometri, ca în vremurile de altă dată. Când nici asta nu a fost de ajuns, a început să apeleze la alte companii să le producă pentru ei.

Iar asta duce la problema numărul 4. Un client notabil pentru Intel era Apple. O companie ce ține tare mult la a face sisteme fiabile, subțiri, ce nu iau foc. O companie ce și-a bazat designul acelor sisteme pe promisiunile partenerilor săi de afaceri. Promisiuni precum „10nm va veni la timp” sau „Nu, serios, puteți proiecta MacBook-ul vostru pentru TDP-ul unui procesor de 10nm” și clasicul „Eh, ce contează dacă ajunge la 100 de grade pentru că v-am livrat tot procesoare de 14nm, nu de parcă o să luați procesoare de la AMD sau o să vile faceți voi vreodată”.

Cu toate acestea, Intel plusa. Intel a lucrat alături de AMD pentru a crea un procesor cu o componentă grafică Radeon. Nu pentru că tare dorea să aibă un astfel de produs în catalogul său, ci pentru că tare au vrut oameni pentru propria sa inițiativă de grafică. Așa au reușit să se apropie de un Raja Koduri, destul de supărat din cauza a ce s-a întâmplat cu Vega, și să îl recruteze pentru divizia de grafică proprie. Una ce, până la ora actuală, încă nu a dat vreun rezultat cu adevărat notabil pe partea de plăci dedicate. Momentan aici nu este o problemă, din câte știu. Ar putea fi la un moment în viitor.

Problema 5 a venit pe neașteptate… pentru noi, pentru diversele industrii care se folosesc de procesoarele Intel, dar nu și pentru Intel. A fost publicat un raport de securitate ce detalia o serie de vulnerabilități reunite sub numele Meltdown și Spectre. Vulnerabilități ce afectează Intel foarte mult, pentru că până la acel moment Intel nu prea și-a schimbat fundamental arhitectura. N-a avut motiv. Dar acum trebuie să facă o serie de schimbări care să adreseze vulnerabilitățile acestea. Trebuie să lanseze petice. Petice care mănâncă foarte mult din performanță. Petice care care au provocat probleme la rândul lor. Pe alocuri a trebuit să scoată Hyperthreading.

Totuși, atât timp cât Intel adresa această probleme fără a da cu stângu’ în dreptu’, n-ar fi fost consecințe mari. Dar…

Problema 6. Intel nu doar că a lansat cu bună știință o generație întreagă de procesoare ce conțin aceste vulnerabilități fără să spună cuiva, dar nu i-a informat nici măcar pe investitori. I-a încurajat. Le-a spus că totul este bine, totul e grozav, iar prețul acțiunilor creștea. Iar puțin mai târziu, CEO-ul companiei și-a vândut toate acțiunile pe care putea în mod legal să le vândă înainte ca anunțul vulnerabilităților să fie publicat.

Asta a supărat investitorii. Asta a supărat foarte mulți oameni. Suficienți încât Brian Krzanich să fie dat afară de la companie. În mod oficial, a fost demis pentru o relație inadecvată cu o subalternă. În mod neoficial, a supărat foarte mulți investitori. Faptul că toate incidentele acestea au fost consecințe ale unor decizii luate în timpul conducerii sale cu siguranță n-a ajutat.

Locul său a fost luat, temporar, de Bob Swan. Chiar dacă se afla la Intel de numai doi ani până la acel punct, directorul economic a devenit directorul general interimar al întregii companii. Iar apoi, pentru că n-a fost nimeni suficient de curajos să accepte responsabilitatea pentru dezastrul de până acum, tot Bob Swan a fost numit CEO permanent al companiei. El a început o procedură de restructurare menite să rezolve totul. L-a angajat până și pe Jim Keller, o vedetă a designului de procesoare, să redreseze procesul de 10 nanometri.

Totul părea de parcă se va redresa. Dar a venit problema cu numărul 7. AMD a lansat seria de procesoare Ryzen 3000 pentru desktop și seria Epyc 2 pentru servere. Procesoare care spulberau tot ce avea de oferit Intel. Bine, dacă ai un 2080 Ti încă mai erau jocuri unde un 9900KS întrecea procesoarele AMD, dar numărul lor scade pe zi ce trece. În rest, oferta celor de la AMD era pur și simplu mai bună. Iar Intel nu avea de oferit decât Skylake, Skylake, iar Skylake și tot Skylake. Știind că nu este într-o situație prea favorabilă, Intel a început să arunce iar șopârle, precum: „Ce contează toate testele astea? Un benchmark e degeaba, contează performanța reală din aplicații reale pe care le folosește toată lumea, cum ar fi Chrome. Cui îi pasă de Blender, Premiere, Cinema 4D, jocuri sau aplicații pentru care lumea chiar ar cumpăra un procesor cu 12 nuclee?” sau „Ah, stai, acum avem și noi un procesor cu 10 nuclee, așa că uite ce bine arătăm în SysMark, uitați ce am zis mai devreme despre cum un rezultat dintr-o aplicație de benchmarking este inutil”.

Serverele Fortnite inainte si dupa peticele de securitate pentru Meltdown

Oferta celor de la AMD a mai fost placul celor care s-au ars sever cu Xeoane, ce aveau acum mai puțină performanță decât atunci când le-au cumpărat. Intel tot domină, Intel tot este la putere, Intel tot va avea oameni ce vor cumpăra mereu procesoarele sale, fiindcă prin ’94 au încercat să folosească un AMD a cărui cache făcea probleme pentru FoxPro și au declarat întreaga companie anatema. Totuși, Intel a ratat și va continua să rateze câteva cicluri de upgrade, pur și simplu pentru că nu are hardware nou de oferit. An după an se acumulează, an după an se creează un nou ecosistem AMD, iar lumea începe să își pună întrebări precum: „Hmm, dacă Netflix și Google tot folosesc Epycurile astea, n-ar trebui și noi? Sunt ei mai cu moț?”.

Ce e drept, asta n-ar fi o problemă dacă Intel ar putea să pună la punct procesul său de 10 nanometri și să scoată procesoare serioase pe el.

Problema 8. Intel nu poate să pună la punct procesul de 10 nanometri. A lansat procesoare pe el, de data asta procesoare adevărate, cele din seria Ice Lake. Procesoare de putere mică. Procesoare ce au o componentă grafică foarte potentă. Dar procesoare ce nu se vor manifesta pe servere, pe laptop-uri serioase sau pe desktop. De ce? Pentru că nu este în stare să ofere precizia, randamentul sau cantitatea de unități necesare. Compania chiar a spus clar că procesul încă defect de 10 nanometri va fi un „nod scurt” că se lucrează din greu la următoarea generație. O generație ce va oferi ceea ce 10 nanometri trebuia să ofere și mult, mult mai mult. Da, Intel lucrează la 7 nanometri și îl va lansa în doar un an de z…

Problema 9. Procesul de 7 nanometri este deja cu 12 luni în urma calendarului pe care îl avea Intel în minte. Este cu un an în urmă. Este cu o generație întreagă de procesoare în urmă. Intel susține că a identificat problema și că o poate repara în doar 6 luni adiționale de muncă. Dar asta va însemna că procesoare de laptop și desktop pe 7 nanometri vor sosi abia în 2023, sau măcar la sfârșitul lui 2022, dacă avem noroc. Pe partea de servere vor fi lansate modele noi abia în 2023, când AMD va fi deja la 5 nanometri cu o generație nouă Epyc, ce probabil vor veni cu 128 de nuclee fizice și 256 de fire de execuție. Jim Keller deja a plecat de la Intel, dar nu cred că trebuie trecut ca o probleme în sine. Poate și-a încheiat treaba. Poate n-a reușit.

Cert este că de data aceasta Intel și-a anunțat partenerii de afaceri din timp, poate și pe investitori. Motiv pentru care:

Problema 10. Apple va renunța peste doi ani cu totul la Intel, neavând suficientă încredere că vor avea pe piață procesoare care să aibă sens pentru sistemele lor din ce în ce mai subțiri. Anunțul a fost anul acesta, dar o astfel de schimbare este clocită de ani buni.

În ciuda acestor probleme, Intel va continua să lanseze procesoare. Unele dintre ele chiar nu vor fi Skylake, din nou. Unele chiar vor avea o arhitectură nouă, probabil. Iar cândva, într-un viitor îndepărtat, unul dintre aceste procesoare poate chiar va fi făcut pe 7 nanometri. Ar putea să fie produse chiar în uzinele altcuiva, Intel anunțând că această posibilitate este luată în considerare. În cazul în care sunt făcute la TSMC, chiar va fi interesant să vedem cum se compară cu adevărat procesele de producție concurente. Nu de alta, dar ceea ce Intel numește 7nm nu este același lucru ca ceea ce TSMC numește 7nm. Acel „7nm” este un termen de marketing, ce nu prea descrie nimic efectiv din proces, având sens doar când este comparat cu predecesorul său direct și cu succesorul său. Nu prea se traduce „cuvânt cu cuvânt” de la o companie la alta.

Intel nu are să dispară peste noapte, chiar și cu toate aceste probleme, pentru că încă are un venit imens. Intel probabil cheltuiește mai mult pe curent electric într-o lună, decât a cheltuit AMD pe dezvoltarea întregii serii de procesoare grafice Vega. Își va permite să nu domine total pe partea de desktop mult și bine. Își va permite să nu domine total pe partea de servere pentru o vreme. Își va permite să nu domine pe partea de tehnologie de producție sau performanță pentru ceva timp. Dar dacă acel proces de 7 nanometri nu va veni când trebuie și arhitecturile ce urmează nu vor scoate un iepure din joben, ca un nou Core 2 Duo sau un nou Sandy Bridge, Intel riscă să devin IBM. O companie care generează zeci de miliarde pe an și se descurcă numai bine, dar care nu prea mai are nici o forță de decizie în direcția în care se îndreaptă piața pe care la un moment o domina.

 

Iulian Mocanu

Redactor Știri

Articole asemanatoare

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

Acest site folosește Akismet pentru a reduce spamul. Află cum sunt procesate datele comentariilor tale.

Back to top button