aes_gcm_asm.S 512 KB

12345678910111213141516171819202122232425262728293031323334353637383940414243444546474849505152535455565758596061626364656667686970717273747576777879808182838485868788899091929394959697989910010110210310410510610710810911011111211311411511611711811912012112212312412512612712812913013113213313413513613713813914014114214314414514614714814915015115215315415515615715815916016116216316416516616716816917017117217317417517617717817918018118218318418518618718818919019119219319419519619719819920020120220320420520620720820921021121221321421521621721821922022122222322422522622722822923023123223323423523623723823924024124224324424524624724824925025125225325425525625725825926026126226326426526626726826927027127227327427527627727827928028128228328428528628728828929029129229329429529629729829930030130230330430530630730830931031131231331431531631731831932032132232332432532632732832933033133233333433533633733833934034134234334434534634734834935035135235335435535635735835936036136236336436536636736836937037137237337437537637737837938038138238338438538638738838939039139239339439539639739839940040140240340440540640740840941041141241341441541641741841942042142242342442542642742842943043143243343443543643743843944044144244344444544644744844945045145245345445545645745845946046146246346446546646746846947047147247347447547647747847948048148248348448548648748848949049149249349449549649749849950050150250350450550650750850951051151251351451551651751851952052152252352452552652752852953053153253353453553653753853954054154254354454554654754854955055155255355455555655755855956056156256356456556656756856957057157257357457557657757857958058158258358458558658758858959059159259359459559659759859960060160260360460560660760860961061161261361461561661761861962062162262362462562662762862963063163263363463563663763863964064164264364464564664764864965065165265365465565665765865966066166266366466566666766866967067167267367467567667767867968068168268368468568668768868969069169269369469569669769869970070170270370470570670770870971071171271371471571671771871972072172272372472572672772872973073173273373473573673773873974074174274374474574674774874975075175275375475575675775875976076176276376476576676776876977077177277377477577677777877978078178278378478578678778878979079179279379479579679779879980080180280380480580680780880981081181281381481581681781881982082182282382482582682782882983083183283383483583683783883984084184284384484584684784884985085185285385485585685785885986086186286386486586686786886987087187287387487587687787887988088188288388488588688788888989089189289389489589689789889990090190290390490590690790890991091191291391491591691791891992092192292392492592692792892993093193293393493593693793893994094194294394494594694794894995095195295395495595695795895996096196296396496596696796896997097197297397497597697797897998098198298398498598698798898999099199299399499599699799899910001001100210031004100510061007100810091010101110121013101410151016101710181019102010211022102310241025102610271028102910301031103210331034103510361037103810391040104110421043104410451046104710481049105010511052105310541055105610571058105910601061106210631064106510661067106810691070107110721073107410751076107710781079108010811082108310841085108610871088108910901091109210931094109510961097109810991100110111021103110411051106110711081109111011111112111311141115111611171118111911201121112211231124112511261127112811291130113111321133113411351136113711381139114011411142114311441145114611471148114911501151115211531154115511561157115811591160116111621163116411651166116711681169117011711172117311741175117611771178117911801181118211831184118511861187118811891190119111921193119411951196119711981199120012011202120312041205120612071208120912101211121212131214121512161217121812191220122112221223122412251226122712281229123012311232123312341235123612371238123912401241124212431244124512461247124812491250125112521253125412551256125712581259126012611262126312641265126612671268126912701271127212731274127512761277127812791280128112821283128412851286128712881289129012911292129312941295129612971298129913001301130213031304130513061307130813091310131113121313131413151316131713181319132013211322132313241325132613271328132913301331133213331334133513361337133813391340134113421343134413451346134713481349135013511352135313541355135613571358135913601361136213631364136513661367136813691370137113721373137413751376137713781379138013811382138313841385138613871388138913901391139213931394139513961397139813991400140114021403140414051406140714081409141014111412141314141415141614171418141914201421142214231424142514261427142814291430143114321433143414351436143714381439144014411442144314441445144614471448144914501451145214531454145514561457145814591460146114621463146414651466146714681469147014711472147314741475147614771478147914801481148214831484148514861487148814891490149114921493149414951496149714981499150015011502150315041505150615071508150915101511151215131514151515161517151815191520152115221523152415251526152715281529153015311532153315341535153615371538153915401541154215431544154515461547154815491550155115521553155415551556155715581559156015611562156315641565156615671568156915701571157215731574157515761577157815791580158115821583158415851586158715881589159015911592159315941595159615971598159916001601160216031604160516061607160816091610161116121613161416151616161716181619162016211622162316241625162616271628162916301631163216331634163516361637163816391640164116421643164416451646164716481649165016511652165316541655165616571658165916601661166216631664166516661667166816691670167116721673167416751676167716781679168016811682168316841685168616871688168916901691169216931694169516961697169816991700170117021703170417051706170717081709171017111712171317141715171617171718171917201721172217231724172517261727172817291730173117321733173417351736173717381739174017411742174317441745174617471748174917501751175217531754175517561757175817591760176117621763176417651766176717681769177017711772177317741775177617771778177917801781178217831784178517861787178817891790179117921793179417951796179717981799180018011802180318041805180618071808180918101811181218131814181518161817181818191820182118221823182418251826182718281829183018311832183318341835183618371838183918401841184218431844184518461847184818491850185118521853185418551856185718581859186018611862186318641865186618671868186918701871187218731874187518761877187818791880188118821883188418851886188718881889189018911892189318941895189618971898189919001901190219031904190519061907190819091910191119121913191419151916191719181919192019211922192319241925192619271928192919301931193219331934193519361937193819391940194119421943194419451946194719481949195019511952195319541955195619571958195919601961196219631964196519661967196819691970197119721973197419751976197719781979198019811982198319841985198619871988198919901991199219931994199519961997199819992000200120022003200420052006200720082009201020112012201320142015201620172018201920202021202220232024202520262027202820292030203120322033203420352036203720382039204020412042204320442045204620472048204920502051205220532054205520562057205820592060206120622063206420652066206720682069207020712072207320742075207620772078207920802081208220832084208520862087208820892090209120922093209420952096209720982099210021012102210321042105210621072108210921102111211221132114211521162117211821192120212121222123212421252126212721282129213021312132213321342135213621372138213921402141214221432144214521462147214821492150215121522153215421552156215721582159216021612162216321642165216621672168216921702171217221732174217521762177217821792180218121822183218421852186218721882189219021912192219321942195219621972198219922002201220222032204220522062207220822092210221122122213221422152216221722182219222022212222222322242225222622272228222922302231223222332234223522362237223822392240224122422243224422452246224722482249225022512252225322542255225622572258225922602261226222632264226522662267226822692270227122722273227422752276227722782279228022812282228322842285228622872288228922902291229222932294229522962297229822992300230123022303230423052306230723082309231023112312231323142315231623172318231923202321232223232324232523262327232823292330233123322333233423352336233723382339234023412342234323442345234623472348234923502351235223532354235523562357235823592360236123622363236423652366236723682369237023712372237323742375237623772378237923802381238223832384238523862387238823892390239123922393239423952396239723982399240024012402240324042405240624072408240924102411241224132414241524162417241824192420242124222423242424252426242724282429243024312432243324342435243624372438243924402441244224432444244524462447244824492450245124522453245424552456245724582459246024612462246324642465246624672468246924702471247224732474247524762477247824792480248124822483248424852486248724882489249024912492249324942495249624972498249925002501250225032504250525062507250825092510251125122513251425152516251725182519252025212522252325242525252625272528252925302531253225332534253525362537253825392540254125422543254425452546254725482549255025512552255325542555255625572558255925602561256225632564256525662567256825692570257125722573257425752576257725782579258025812582258325842585258625872588258925902591259225932594259525962597259825992600260126022603260426052606260726082609261026112612261326142615261626172618261926202621262226232624262526262627262826292630263126322633263426352636263726382639264026412642264326442645264626472648264926502651265226532654265526562657265826592660266126622663266426652666266726682669267026712672267326742675267626772678267926802681268226832684268526862687268826892690269126922693269426952696269726982699270027012702270327042705270627072708270927102711271227132714271527162717271827192720272127222723272427252726272727282729273027312732273327342735273627372738273927402741274227432744274527462747274827492750275127522753275427552756275727582759276027612762276327642765276627672768276927702771277227732774277527762777277827792780278127822783278427852786278727882789279027912792279327942795279627972798279928002801280228032804280528062807280828092810281128122813281428152816281728182819282028212822282328242825282628272828282928302831283228332834283528362837283828392840284128422843284428452846284728482849285028512852285328542855285628572858285928602861286228632864286528662867286828692870287128722873287428752876287728782879288028812882288328842885288628872888288928902891289228932894289528962897289828992900290129022903290429052906290729082909291029112912291329142915291629172918291929202921292229232924292529262927292829292930293129322933293429352936293729382939294029412942294329442945294629472948294929502951295229532954295529562957295829592960296129622963296429652966296729682969297029712972297329742975297629772978297929802981298229832984298529862987298829892990299129922993299429952996299729982999300030013002300330043005300630073008300930103011301230133014301530163017301830193020302130223023302430253026302730283029303030313032303330343035303630373038303930403041304230433044304530463047304830493050305130523053305430553056305730583059306030613062306330643065306630673068306930703071307230733074307530763077307830793080308130823083308430853086308730883089309030913092309330943095309630973098309931003101310231033104310531063107310831093110311131123113311431153116311731183119312031213122312331243125312631273128312931303131313231333134313531363137313831393140314131423143314431453146314731483149315031513152315331543155315631573158315931603161316231633164316531663167316831693170317131723173317431753176317731783179318031813182318331843185318631873188318931903191319231933194319531963197319831993200320132023203320432053206320732083209321032113212321332143215321632173218321932203221322232233224322532263227322832293230323132323233323432353236323732383239324032413242324332443245324632473248324932503251325232533254325532563257325832593260326132623263326432653266326732683269327032713272327332743275327632773278327932803281328232833284328532863287328832893290329132923293329432953296329732983299330033013302330333043305330633073308330933103311331233133314331533163317331833193320332133223323332433253326332733283329333033313332333333343335333633373338333933403341334233433344334533463347334833493350335133523353335433553356335733583359336033613362336333643365336633673368336933703371337233733374337533763377337833793380338133823383338433853386338733883389339033913392339333943395339633973398339934003401340234033404340534063407340834093410341134123413341434153416341734183419342034213422342334243425342634273428342934303431343234333434343534363437343834393440344134423443344434453446344734483449345034513452345334543455345634573458345934603461346234633464346534663467346834693470347134723473347434753476347734783479348034813482348334843485348634873488348934903491349234933494349534963497349834993500350135023503350435053506350735083509351035113512351335143515351635173518351935203521352235233524352535263527352835293530353135323533353435353536353735383539354035413542354335443545354635473548354935503551355235533554355535563557355835593560356135623563356435653566356735683569357035713572357335743575357635773578357935803581358235833584358535863587358835893590359135923593359435953596359735983599360036013602360336043605360636073608360936103611361236133614361536163617361836193620362136223623362436253626362736283629363036313632363336343635363636373638363936403641364236433644364536463647364836493650365136523653365436553656365736583659366036613662366336643665366636673668366936703671367236733674367536763677367836793680368136823683368436853686368736883689369036913692369336943695369636973698369937003701370237033704370537063707370837093710371137123713371437153716371737183719372037213722372337243725372637273728372937303731373237333734373537363737373837393740374137423743374437453746374737483749375037513752375337543755375637573758375937603761376237633764376537663767376837693770377137723773377437753776377737783779378037813782378337843785378637873788378937903791379237933794379537963797379837993800380138023803380438053806380738083809381038113812381338143815381638173818381938203821382238233824382538263827382838293830383138323833383438353836383738383839384038413842384338443845384638473848384938503851385238533854385538563857385838593860386138623863386438653866386738683869387038713872387338743875387638773878387938803881388238833884388538863887388838893890389138923893389438953896389738983899390039013902390339043905390639073908390939103911391239133914391539163917391839193920392139223923392439253926392739283929393039313932393339343935393639373938393939403941394239433944394539463947394839493950395139523953395439553956395739583959396039613962396339643965396639673968396939703971397239733974397539763977397839793980398139823983398439853986398739883989399039913992399339943995399639973998399940004001400240034004400540064007400840094010401140124013401440154016401740184019402040214022402340244025402640274028402940304031403240334034403540364037403840394040404140424043404440454046404740484049405040514052405340544055405640574058405940604061406240634064406540664067406840694070407140724073407440754076407740784079408040814082408340844085408640874088408940904091409240934094409540964097409840994100410141024103410441054106410741084109411041114112411341144115411641174118411941204121412241234124412541264127412841294130413141324133413441354136413741384139414041414142414341444145414641474148414941504151415241534154415541564157415841594160416141624163416441654166416741684169417041714172417341744175417641774178417941804181418241834184418541864187418841894190419141924193419441954196419741984199420042014202420342044205420642074208420942104211421242134214421542164217421842194220422142224223422442254226422742284229423042314232423342344235423642374238423942404241424242434244424542464247424842494250425142524253425442554256425742584259426042614262426342644265426642674268426942704271427242734274427542764277427842794280428142824283428442854286428742884289429042914292429342944295429642974298429943004301430243034304430543064307430843094310431143124313431443154316431743184319432043214322432343244325432643274328432943304331433243334334433543364337433843394340434143424343434443454346434743484349435043514352435343544355435643574358435943604361436243634364436543664367436843694370437143724373437443754376437743784379438043814382438343844385438643874388438943904391439243934394439543964397439843994400440144024403440444054406440744084409441044114412441344144415441644174418441944204421442244234424442544264427442844294430443144324433443444354436443744384439444044414442444344444445444644474448444944504451445244534454445544564457445844594460446144624463446444654466446744684469447044714472447344744475447644774478447944804481448244834484448544864487448844894490449144924493449444954496449744984499450045014502450345044505450645074508450945104511451245134514451545164517451845194520452145224523452445254526452745284529453045314532453345344535453645374538453945404541454245434544454545464547454845494550455145524553455445554556455745584559456045614562456345644565456645674568456945704571457245734574457545764577457845794580458145824583458445854586458745884589459045914592459345944595459645974598459946004601460246034604460546064607460846094610461146124613461446154616461746184619462046214622462346244625462646274628462946304631463246334634463546364637463846394640464146424643464446454646464746484649465046514652465346544655465646574658465946604661466246634664466546664667466846694670467146724673467446754676467746784679468046814682468346844685468646874688468946904691469246934694469546964697469846994700470147024703470447054706470747084709471047114712471347144715471647174718471947204721472247234724472547264727472847294730473147324733473447354736473747384739474047414742474347444745474647474748474947504751475247534754475547564757475847594760476147624763476447654766476747684769477047714772477347744775477647774778477947804781478247834784478547864787478847894790479147924793479447954796479747984799480048014802480348044805480648074808480948104811481248134814481548164817481848194820482148224823482448254826482748284829483048314832483348344835483648374838483948404841484248434844484548464847484848494850485148524853485448554856485748584859486048614862486348644865486648674868486948704871487248734874487548764877487848794880488148824883488448854886488748884889489048914892489348944895489648974898489949004901490249034904490549064907490849094910491149124913491449154916491749184919492049214922492349244925492649274928492949304931493249334934493549364937493849394940494149424943494449454946494749484949495049514952495349544955495649574958495949604961496249634964496549664967496849694970497149724973497449754976497749784979498049814982498349844985498649874988498949904991499249934994499549964997499849995000500150025003500450055006500750085009501050115012501350145015501650175018501950205021502250235024502550265027502850295030503150325033503450355036503750385039504050415042504350445045504650475048504950505051505250535054505550565057505850595060506150625063506450655066506750685069507050715072507350745075507650775078507950805081508250835084508550865087508850895090509150925093509450955096509750985099510051015102510351045105510651075108510951105111511251135114511551165117511851195120512151225123512451255126512751285129513051315132513351345135513651375138513951405141514251435144514551465147514851495150515151525153515451555156515751585159516051615162516351645165516651675168516951705171517251735174517551765177517851795180518151825183518451855186518751885189519051915192519351945195519651975198519952005201520252035204520552065207520852095210521152125213521452155216521752185219522052215222522352245225522652275228522952305231523252335234523552365237523852395240524152425243524452455246524752485249525052515252525352545255525652575258525952605261526252635264526552665267526852695270527152725273527452755276527752785279528052815282528352845285528652875288528952905291529252935294529552965297529852995300530153025303530453055306530753085309531053115312531353145315531653175318531953205321532253235324532553265327532853295330533153325333533453355336533753385339534053415342534353445345534653475348534953505351535253535354535553565357535853595360536153625363536453655366536753685369537053715372537353745375537653775378537953805381538253835384538553865387538853895390539153925393539453955396539753985399540054015402540354045405540654075408540954105411541254135414541554165417541854195420542154225423542454255426542754285429543054315432543354345435543654375438543954405441544254435444544554465447544854495450545154525453545454555456545754585459546054615462546354645465546654675468546954705471547254735474547554765477547854795480548154825483548454855486548754885489549054915492549354945495549654975498549955005501550255035504550555065507550855095510551155125513551455155516551755185519552055215522552355245525552655275528552955305531553255335534553555365537553855395540554155425543554455455546554755485549555055515552555355545555555655575558555955605561556255635564556555665567556855695570557155725573557455755576557755785579558055815582558355845585558655875588558955905591559255935594559555965597559855995600560156025603560456055606560756085609561056115612561356145615561656175618561956205621562256235624562556265627562856295630563156325633563456355636563756385639564056415642564356445645564656475648564956505651565256535654565556565657565856595660566156625663566456655666566756685669567056715672567356745675567656775678567956805681568256835684568556865687568856895690569156925693569456955696569756985699570057015702570357045705570657075708570957105711571257135714571557165717571857195720572157225723572457255726572757285729573057315732573357345735573657375738573957405741574257435744574557465747574857495750575157525753575457555756575757585759576057615762576357645765576657675768576957705771577257735774577557765777577857795780578157825783578457855786578757885789579057915792579357945795579657975798579958005801580258035804580558065807580858095810581158125813581458155816581758185819582058215822582358245825582658275828582958305831583258335834583558365837583858395840584158425843584458455846584758485849585058515852585358545855585658575858585958605861586258635864586558665867586858695870587158725873587458755876587758785879588058815882588358845885588658875888588958905891589258935894589558965897589858995900590159025903590459055906590759085909591059115912591359145915591659175918591959205921592259235924592559265927592859295930593159325933593459355936593759385939594059415942594359445945594659475948594959505951595259535954595559565957595859595960596159625963596459655966596759685969597059715972597359745975597659775978597959805981598259835984598559865987598859895990599159925993599459955996599759985999600060016002600360046005600660076008600960106011601260136014601560166017601860196020602160226023602460256026602760286029603060316032603360346035603660376038603960406041604260436044604560466047604860496050605160526053605460556056605760586059606060616062606360646065606660676068606960706071607260736074607560766077607860796080608160826083608460856086608760886089609060916092609360946095609660976098609961006101610261036104610561066107610861096110611161126113611461156116611761186119612061216122612361246125612661276128612961306131613261336134613561366137613861396140614161426143614461456146614761486149615061516152615361546155615661576158615961606161616261636164616561666167616861696170617161726173617461756176617761786179618061816182618361846185618661876188618961906191619261936194619561966197619861996200620162026203620462056206620762086209621062116212621362146215621662176218621962206221622262236224622562266227622862296230623162326233623462356236623762386239624062416242624362446245624662476248624962506251625262536254625562566257625862596260626162626263626462656266626762686269627062716272627362746275627662776278627962806281628262836284628562866287628862896290629162926293629462956296629762986299630063016302630363046305630663076308630963106311631263136314631563166317631863196320632163226323632463256326632763286329633063316332633363346335633663376338633963406341634263436344634563466347634863496350635163526353635463556356635763586359636063616362636363646365636663676368636963706371637263736374637563766377637863796380638163826383638463856386638763886389639063916392639363946395639663976398639964006401640264036404640564066407640864096410641164126413641464156416641764186419642064216422642364246425642664276428642964306431643264336434643564366437643864396440644164426443644464456446644764486449645064516452645364546455645664576458645964606461646264636464646564666467646864696470647164726473647464756476647764786479648064816482648364846485648664876488648964906491649264936494649564966497649864996500650165026503650465056506650765086509651065116512651365146515651665176518651965206521652265236524652565266527652865296530653165326533653465356536653765386539654065416542654365446545654665476548654965506551655265536554655565566557655865596560656165626563656465656566656765686569657065716572657365746575657665776578657965806581658265836584658565866587658865896590659165926593659465956596659765986599660066016602660366046605660666076608660966106611661266136614661566166617661866196620662166226623662466256626662766286629663066316632663366346635663666376638663966406641664266436644664566466647664866496650665166526653665466556656665766586659666066616662666366646665666666676668666966706671667266736674667566766677667866796680668166826683668466856686668766886689669066916692669366946695669666976698669967006701670267036704670567066707670867096710671167126713671467156716671767186719672067216722672367246725672667276728672967306731673267336734673567366737673867396740674167426743674467456746674767486749675067516752675367546755675667576758675967606761676267636764676567666767676867696770677167726773677467756776677767786779678067816782678367846785678667876788678967906791679267936794679567966797679867996800680168026803680468056806680768086809681068116812681368146815681668176818681968206821682268236824682568266827682868296830683168326833683468356836683768386839684068416842684368446845684668476848684968506851685268536854685568566857685868596860686168626863686468656866686768686869687068716872687368746875687668776878687968806881688268836884688568866887688868896890689168926893689468956896689768986899690069016902690369046905690669076908690969106911691269136914691569166917691869196920692169226923692469256926692769286929693069316932693369346935693669376938693969406941694269436944694569466947694869496950695169526953695469556956695769586959696069616962696369646965696669676968696969706971697269736974697569766977697869796980698169826983698469856986698769886989699069916992699369946995699669976998699970007001700270037004700570067007700870097010701170127013701470157016701770187019702070217022702370247025702670277028702970307031703270337034703570367037703870397040704170427043704470457046704770487049705070517052705370547055705670577058705970607061706270637064706570667067706870697070707170727073707470757076707770787079708070817082708370847085708670877088708970907091709270937094709570967097709870997100710171027103710471057106710771087109711071117112711371147115711671177118711971207121712271237124712571267127712871297130713171327133713471357136713771387139714071417142714371447145714671477148714971507151715271537154715571567157715871597160716171627163716471657166716771687169717071717172717371747175717671777178717971807181718271837184718571867187718871897190719171927193719471957196719771987199720072017202720372047205720672077208720972107211721272137214721572167217721872197220722172227223722472257226722772287229723072317232723372347235723672377238723972407241724272437244724572467247724872497250725172527253725472557256725772587259726072617262726372647265726672677268726972707271727272737274727572767277727872797280728172827283728472857286728772887289729072917292729372947295729672977298729973007301730273037304730573067307730873097310731173127313731473157316731773187319732073217322732373247325732673277328732973307331733273337334733573367337733873397340734173427343734473457346734773487349735073517352735373547355735673577358735973607361736273637364736573667367736873697370737173727373737473757376737773787379738073817382738373847385738673877388738973907391739273937394739573967397739873997400740174027403740474057406740774087409741074117412741374147415741674177418741974207421742274237424742574267427742874297430743174327433743474357436743774387439744074417442744374447445744674477448744974507451745274537454745574567457745874597460746174627463746474657466746774687469747074717472747374747475747674777478747974807481748274837484748574867487748874897490749174927493749474957496749774987499750075017502750375047505750675077508750975107511751275137514751575167517751875197520752175227523752475257526752775287529753075317532753375347535753675377538753975407541754275437544754575467547754875497550755175527553755475557556755775587559756075617562756375647565756675677568756975707571757275737574757575767577757875797580758175827583758475857586758775887589759075917592759375947595759675977598759976007601760276037604760576067607760876097610761176127613761476157616761776187619762076217622762376247625762676277628762976307631763276337634763576367637763876397640764176427643764476457646764776487649765076517652765376547655765676577658765976607661766276637664766576667667766876697670767176727673767476757676767776787679768076817682768376847685768676877688768976907691769276937694769576967697769876997700770177027703770477057706770777087709771077117712771377147715771677177718771977207721772277237724772577267727772877297730773177327733773477357736773777387739774077417742774377447745774677477748774977507751775277537754775577567757775877597760776177627763776477657766776777687769777077717772777377747775777677777778777977807781778277837784778577867787778877897790779177927793779477957796779777987799780078017802780378047805780678077808780978107811781278137814781578167817781878197820782178227823782478257826782778287829783078317832783378347835783678377838783978407841784278437844784578467847784878497850785178527853785478557856785778587859786078617862786378647865786678677868786978707871787278737874787578767877787878797880788178827883788478857886788778887889789078917892789378947895789678977898789979007901790279037904790579067907790879097910791179127913791479157916791779187919792079217922792379247925792679277928792979307931793279337934793579367937793879397940794179427943794479457946794779487949795079517952795379547955795679577958795979607961796279637964796579667967796879697970797179727973797479757976797779787979798079817982798379847985798679877988798979907991799279937994799579967997799879998000800180028003800480058006800780088009801080118012801380148015801680178018801980208021802280238024802580268027802880298030803180328033803480358036803780388039804080418042804380448045804680478048804980508051805280538054805580568057805880598060806180628063806480658066806780688069807080718072807380748075807680778078807980808081808280838084808580868087808880898090809180928093809480958096809780988099810081018102810381048105810681078108810981108111811281138114811581168117811881198120812181228123812481258126812781288129813081318132813381348135813681378138813981408141814281438144814581468147814881498150815181528153815481558156815781588159816081618162816381648165816681678168816981708171817281738174817581768177817881798180818181828183818481858186818781888189819081918192819381948195819681978198819982008201820282038204820582068207820882098210821182128213821482158216821782188219822082218222822382248225822682278228822982308231823282338234823582368237823882398240824182428243824482458246824782488249825082518252825382548255825682578258825982608261826282638264826582668267826882698270827182728273827482758276827782788279828082818282828382848285828682878288828982908291829282938294829582968297829882998300830183028303830483058306830783088309831083118312831383148315831683178318831983208321832283238324832583268327832883298330833183328333833483358336833783388339834083418342834383448345834683478348834983508351835283538354835583568357835883598360836183628363836483658366836783688369837083718372837383748375837683778378837983808381838283838384838583868387838883898390839183928393839483958396839783988399840084018402840384048405840684078408840984108411841284138414841584168417841884198420842184228423842484258426842784288429843084318432843384348435843684378438843984408441844284438444844584468447844884498450845184528453845484558456845784588459846084618462846384648465846684678468846984708471847284738474847584768477847884798480848184828483848484858486848784888489849084918492849384948495849684978498849985008501850285038504850585068507850885098510851185128513851485158516851785188519852085218522852385248525852685278528852985308531853285338534853585368537853885398540854185428543854485458546854785488549855085518552855385548555855685578558855985608561856285638564856585668567856885698570857185728573857485758576857785788579858085818582858385848585858685878588858985908591859285938594859585968597859885998600860186028603860486058606860786088609861086118612861386148615861686178618861986208621862286238624862586268627862886298630863186328633863486358636863786388639864086418642864386448645864686478648864986508651865286538654865586568657865886598660866186628663866486658666866786688669867086718672867386748675867686778678867986808681868286838684868586868687868886898690869186928693869486958696869786988699870087018702870387048705870687078708870987108711871287138714871587168717871887198720872187228723872487258726872787288729873087318732873387348735873687378738873987408741874287438744874587468747874887498750875187528753875487558756875787588759876087618762876387648765876687678768876987708771877287738774877587768777877887798780878187828783878487858786878787888789879087918792879387948795879687978798879988008801880288038804880588068807880888098810881188128813881488158816881788188819882088218822882388248825882688278828882988308831883288338834883588368837883888398840884188428843884488458846884788488849885088518852885388548855885688578858885988608861886288638864886588668867886888698870887188728873887488758876887788788879888088818882888388848885888688878888888988908891889288938894889588968897889888998900890189028903890489058906890789088909891089118912891389148915891689178918891989208921892289238924892589268927892889298930893189328933893489358936893789388939894089418942894389448945894689478948894989508951895289538954895589568957895889598960896189628963896489658966896789688969897089718972897389748975897689778978897989808981898289838984898589868987898889898990899189928993899489958996899789988999900090019002900390049005900690079008900990109011901290139014901590169017901890199020902190229023902490259026902790289029903090319032903390349035903690379038903990409041904290439044904590469047904890499050905190529053905490559056905790589059906090619062906390649065906690679068906990709071907290739074907590769077907890799080908190829083908490859086908790889089909090919092909390949095909690979098909991009101910291039104910591069107910891099110911191129113911491159116911791189119912091219122912391249125912691279128912991309131913291339134913591369137913891399140914191429143914491459146914791489149915091519152915391549155915691579158915991609161916291639164916591669167916891699170917191729173917491759176917791789179918091819182918391849185918691879188918991909191919291939194919591969197919891999200920192029203920492059206920792089209921092119212921392149215921692179218921992209221922292239224922592269227922892299230923192329233923492359236923792389239924092419242924392449245924692479248924992509251925292539254925592569257925892599260926192629263926492659266926792689269927092719272927392749275927692779278927992809281928292839284928592869287928892899290929192929293929492959296929792989299930093019302930393049305930693079308930993109311931293139314931593169317931893199320932193229323932493259326932793289329933093319332933393349335933693379338933993409341934293439344934593469347934893499350935193529353935493559356935793589359936093619362936393649365936693679368936993709371937293739374937593769377937893799380938193829383938493859386938793889389939093919392939393949395939693979398939994009401940294039404940594069407940894099410941194129413941494159416941794189419942094219422942394249425942694279428942994309431943294339434943594369437943894399440944194429443944494459446944794489449945094519452945394549455945694579458945994609461946294639464946594669467946894699470947194729473947494759476947794789479948094819482948394849485948694879488948994909491949294939494949594969497949894999500950195029503950495059506950795089509951095119512951395149515951695179518951995209521952295239524952595269527952895299530953195329533953495359536953795389539954095419542954395449545954695479548954995509551955295539554955595569557955895599560956195629563956495659566956795689569957095719572957395749575957695779578957995809581958295839584958595869587958895899590959195929593959495959596959795989599960096019602960396049605960696079608960996109611961296139614961596169617961896199620962196229623962496259626962796289629963096319632963396349635963696379638963996409641964296439644964596469647964896499650965196529653965496559656965796589659966096619662966396649665966696679668966996709671967296739674967596769677967896799680968196829683968496859686968796889689969096919692969396949695969696979698969997009701970297039704970597069707970897099710971197129713971497159716971797189719972097219722972397249725972697279728972997309731973297339734973597369737973897399740974197429743974497459746974797489749975097519752975397549755975697579758975997609761976297639764976597669767976897699770977197729773977497759776977797789779978097819782978397849785978697879788978997909791979297939794979597969797979897999800980198029803980498059806980798089809981098119812981398149815981698179818981998209821982298239824982598269827982898299830983198329833983498359836983798389839984098419842984398449845984698479848984998509851985298539854985598569857985898599860986198629863986498659866986798689869987098719872987398749875987698779878987998809881988298839884988598869887988898899890989198929893989498959896989798989899990099019902990399049905990699079908990999109911991299139914991599169917991899199920992199229923992499259926992799289929993099319932993399349935993699379938993999409941994299439944994599469947994899499950995199529953995499559956995799589959996099619962996399649965996699679968996999709971997299739974997599769977997899799980998199829983998499859986998799889989999099919992999399949995999699979998999910000100011000210003100041000510006100071000810009100101001110012100131001410015100161001710018100191002010021100221002310024100251002610027100281002910030100311003210033100341003510036100371003810039100401004110042100431004410045100461004710048100491005010051100521005310054100551005610057100581005910060100611006210063100641006510066100671006810069100701007110072100731007410075100761007710078100791008010081100821008310084100851008610087100881008910090100911009210093100941009510096100971009810099101001010110102101031010410105101061010710108101091011010111101121011310114101151011610117101181011910120101211012210123101241012510126101271012810129101301013110132101331013410135101361013710138101391014010141101421014310144101451014610147101481014910150101511015210153101541015510156101571015810159101601016110162101631016410165101661016710168101691017010171101721017310174101751017610177101781017910180101811018210183101841018510186101871018810189101901019110192101931019410195101961019710198101991020010201102021020310204102051020610207102081020910210102111021210213102141021510216102171021810219102201022110222102231022410225102261022710228102291023010231102321023310234102351023610237102381023910240102411024210243102441024510246102471024810249102501025110252102531025410255102561025710258102591026010261102621026310264102651026610267102681026910270102711027210273102741027510276102771027810279102801028110282102831028410285102861028710288102891029010291102921029310294102951029610297102981029910300103011030210303103041030510306103071030810309103101031110312103131031410315103161031710318103191032010321103221032310324103251032610327103281032910330103311033210333103341033510336103371033810339103401034110342103431034410345103461034710348103491035010351103521035310354103551035610357103581035910360103611036210363103641036510366103671036810369103701037110372103731037410375103761037710378103791038010381103821038310384103851038610387103881038910390103911039210393103941039510396103971039810399104001040110402104031040410405104061040710408104091041010411104121041310414104151041610417104181041910420104211042210423104241042510426104271042810429104301043110432104331043410435104361043710438104391044010441104421044310444104451044610447104481044910450104511045210453104541045510456104571045810459104601046110462104631046410465104661046710468104691047010471104721047310474104751047610477104781047910480104811048210483104841048510486104871048810489104901049110492104931049410495104961049710498104991050010501105021050310504105051050610507105081050910510105111051210513105141051510516105171051810519105201052110522105231052410525105261052710528105291053010531105321053310534105351053610537105381053910540105411054210543105441054510546105471054810549105501055110552105531055410555105561055710558105591056010561105621056310564105651056610567105681056910570105711057210573105741057510576105771057810579105801058110582105831058410585105861058710588105891059010591105921059310594105951059610597105981059910600106011060210603106041060510606106071060810609106101061110612106131061410615106161061710618106191062010621106221062310624106251062610627106281062910630106311063210633106341063510636106371063810639106401064110642106431064410645106461064710648106491065010651106521065310654106551065610657106581065910660106611066210663106641066510666106671066810669106701067110672106731067410675106761067710678106791068010681106821068310684106851068610687106881068910690106911069210693106941069510696106971069810699107001070110702107031070410705107061070710708107091071010711107121071310714107151071610717107181071910720107211072210723107241072510726107271072810729107301073110732107331073410735107361073710738107391074010741107421074310744107451074610747107481074910750107511075210753107541075510756107571075810759107601076110762107631076410765107661076710768107691077010771107721077310774107751077610777107781077910780107811078210783107841078510786107871078810789107901079110792107931079410795107961079710798107991080010801108021080310804108051080610807108081080910810108111081210813108141081510816108171081810819108201082110822108231082410825108261082710828108291083010831108321083310834108351083610837108381083910840108411084210843108441084510846108471084810849108501085110852108531085410855108561085710858108591086010861108621086310864108651086610867108681086910870108711087210873108741087510876108771087810879108801088110882108831088410885108861088710888108891089010891108921089310894108951089610897108981089910900109011090210903109041090510906109071090810909109101091110912109131091410915109161091710918109191092010921109221092310924109251092610927109281092910930109311093210933109341093510936109371093810939109401094110942109431094410945109461094710948109491095010951109521095310954109551095610957109581095910960109611096210963109641096510966109671096810969109701097110972109731097410975109761097710978109791098010981109821098310984109851098610987109881098910990109911099210993109941099510996109971099810999110001100111002110031100411005110061100711008110091101011011110121101311014110151101611017110181101911020110211102211023110241102511026110271102811029110301103111032110331103411035110361103711038110391104011041110421104311044110451104611047110481104911050110511105211053110541105511056110571105811059110601106111062110631106411065110661106711068110691107011071110721107311074110751107611077110781107911080110811108211083110841108511086110871108811089110901109111092110931109411095110961109711098110991110011101111021110311104111051110611107111081110911110111111111211113111141111511116111171111811119111201112111122111231112411125111261112711128111291113011131111321113311134111351113611137111381113911140111411114211143111441114511146111471114811149111501115111152111531115411155111561115711158111591116011161111621116311164111651116611167111681116911170111711117211173111741117511176111771117811179111801118111182111831118411185111861118711188111891119011191111921119311194111951119611197111981119911200112011120211203112041120511206112071120811209112101121111212112131121411215112161121711218112191122011221112221122311224112251122611227112281122911230112311123211233112341123511236112371123811239112401124111242112431124411245112461124711248112491125011251112521125311254112551125611257112581125911260112611126211263112641126511266112671126811269112701127111272112731127411275112761127711278112791128011281112821128311284112851128611287112881128911290112911129211293112941129511296112971129811299113001130111302113031130411305113061130711308113091131011311113121131311314113151131611317113181131911320113211132211323113241132511326113271132811329113301133111332113331133411335113361133711338113391134011341113421134311344113451134611347113481134911350113511135211353113541135511356113571135811359113601136111362113631136411365113661136711368113691137011371113721137311374113751137611377113781137911380113811138211383113841138511386113871138811389113901139111392113931139411395113961139711398113991140011401114021140311404114051140611407114081140911410114111141211413114141141511416114171141811419114201142111422114231142411425114261142711428114291143011431114321143311434114351143611437114381143911440114411144211443114441144511446114471144811449114501145111452114531145411455114561145711458114591146011461114621146311464114651146611467114681146911470114711147211473114741147511476114771147811479114801148111482114831148411485114861148711488114891149011491114921149311494114951149611497114981149911500115011150211503115041150511506115071150811509115101151111512115131151411515115161151711518115191152011521115221152311524115251152611527115281152911530115311153211533115341153511536115371153811539115401154111542115431154411545115461154711548115491155011551115521155311554115551155611557115581155911560115611156211563115641156511566115671156811569115701157111572115731157411575115761157711578115791158011581115821158311584115851158611587115881158911590115911159211593115941159511596115971159811599116001160111602116031160411605116061160711608116091161011611116121161311614116151161611617116181161911620116211162211623116241162511626116271162811629116301163111632116331163411635116361163711638116391164011641116421164311644116451164611647116481164911650116511165211653116541165511656116571165811659116601166111662116631166411665116661166711668116691167011671116721167311674116751167611677116781167911680116811168211683116841168511686116871168811689116901169111692116931169411695116961169711698116991170011701117021170311704117051170611707117081170911710117111171211713117141171511716117171171811719117201172111722117231172411725117261172711728117291173011731117321173311734117351173611737117381173911740117411174211743117441174511746117471174811749117501175111752117531175411755117561175711758117591176011761117621176311764117651176611767117681176911770117711177211773117741177511776117771177811779117801178111782117831178411785117861178711788117891179011791117921179311794117951179611797117981179911800118011180211803118041180511806118071180811809118101181111812118131181411815118161181711818118191182011821118221182311824118251182611827118281182911830118311183211833118341183511836118371183811839118401184111842118431184411845118461184711848118491185011851118521185311854118551185611857118581185911860118611186211863118641186511866118671186811869118701187111872118731187411875118761187711878118791188011881118821188311884118851188611887118881188911890118911189211893118941189511896118971189811899119001190111902119031190411905119061190711908119091191011911119121191311914119151191611917119181191911920119211192211923119241192511926119271192811929119301193111932119331193411935119361193711938119391194011941119421194311944119451194611947119481194911950119511195211953119541195511956119571195811959119601196111962119631196411965119661196711968119691197011971119721197311974119751197611977119781197911980119811198211983119841198511986119871198811989119901199111992119931199411995119961199711998119991200012001120021200312004120051200612007120081200912010120111201212013120141201512016120171201812019120201202112022120231202412025120261202712028120291203012031120321203312034120351203612037120381203912040120411204212043120441204512046120471204812049120501205112052120531205412055120561205712058120591206012061120621206312064120651206612067120681206912070120711207212073120741207512076120771207812079120801208112082120831208412085120861208712088120891209012091120921209312094120951209612097120981209912100121011210212103121041210512106121071210812109121101211112112121131211412115121161211712118121191212012121121221212312124121251212612127121281212912130121311213212133121341213512136121371213812139121401214112142121431214412145121461214712148121491215012151121521215312154121551215612157121581215912160121611216212163121641216512166121671216812169121701217112172121731217412175121761217712178121791218012181121821218312184121851218612187121881218912190121911219212193121941219512196121971219812199122001220112202122031220412205122061220712208122091221012211122121221312214122151221612217122181221912220122211222212223122241222512226122271222812229122301223112232122331223412235122361223712238122391224012241122421224312244122451224612247122481224912250122511225212253122541225512256122571225812259122601226112262122631226412265122661226712268122691227012271122721227312274122751227612277122781227912280122811228212283122841228512286122871228812289122901229112292122931229412295122961229712298122991230012301123021230312304123051230612307123081230912310123111231212313123141231512316123171231812319123201232112322123231232412325123261232712328123291233012331123321233312334123351233612337123381233912340123411234212343123441234512346123471234812349123501235112352123531235412355123561235712358123591236012361123621236312364123651236612367123681236912370123711237212373123741237512376123771237812379123801238112382123831238412385123861238712388123891239012391123921239312394123951239612397123981239912400124011240212403124041240512406124071240812409124101241112412124131241412415124161241712418124191242012421124221242312424124251242612427124281242912430124311243212433124341243512436124371243812439124401244112442124431244412445124461244712448124491245012451124521245312454124551245612457124581245912460124611246212463124641246512466124671246812469124701247112472124731247412475124761247712478124791248012481124821248312484124851248612487124881248912490124911249212493124941249512496124971249812499125001250112502125031250412505125061250712508125091251012511125121251312514125151251612517125181251912520125211252212523125241252512526125271252812529125301253112532125331253412535125361253712538125391254012541125421254312544125451254612547125481254912550125511255212553125541255512556125571255812559125601256112562125631256412565125661256712568125691257012571125721257312574125751257612577125781257912580125811258212583125841258512586125871258812589125901259112592125931259412595125961259712598125991260012601126021260312604126051260612607126081260912610126111261212613126141261512616126171261812619126201262112622126231262412625126261262712628126291263012631126321263312634126351263612637126381263912640126411264212643126441264512646126471264812649126501265112652126531265412655126561265712658126591266012661126621266312664126651266612667126681266912670126711267212673126741267512676126771267812679126801268112682126831268412685126861268712688126891269012691126921269312694126951269612697126981269912700127011270212703127041270512706127071270812709127101271112712127131271412715127161271712718127191272012721127221272312724127251272612727127281272912730127311273212733127341273512736127371273812739127401274112742127431274412745127461274712748127491275012751127521275312754127551275612757127581275912760127611276212763127641276512766127671276812769127701277112772127731277412775127761277712778127791278012781127821278312784127851278612787127881278912790127911279212793127941279512796127971279812799128001280112802128031280412805128061280712808128091281012811128121281312814128151281612817128181281912820128211282212823128241282512826128271282812829128301283112832128331283412835128361283712838128391284012841128421284312844128451284612847128481284912850128511285212853128541285512856128571285812859128601286112862128631286412865128661286712868128691287012871128721287312874128751287612877128781287912880128811288212883128841288512886128871288812889128901289112892128931289412895128961289712898128991290012901129021290312904129051290612907129081290912910129111291212913129141291512916129171291812919129201292112922129231292412925129261292712928129291293012931129321293312934129351293612937129381293912940129411294212943129441294512946129471294812949129501295112952129531295412955129561295712958129591296012961129621296312964129651296612967129681296912970129711297212973129741297512976129771297812979129801298112982129831298412985129861298712988129891299012991129921299312994129951299612997129981299913000130011300213003130041300513006130071300813009130101301113012130131301413015130161301713018130191302013021130221302313024130251302613027130281302913030130311303213033130341303513036130371303813039130401304113042130431304413045130461304713048130491305013051130521305313054130551305613057130581305913060130611306213063130641306513066130671306813069130701307113072130731307413075130761307713078130791308013081130821308313084130851308613087130881308913090130911309213093130941309513096130971309813099131001310113102131031310413105131061310713108131091311013111131121311313114131151311613117131181311913120131211312213123131241312513126131271312813129131301313113132131331313413135131361313713138131391314013141131421314313144131451314613147131481314913150131511315213153131541315513156131571315813159131601316113162131631316413165131661316713168131691317013171131721317313174131751317613177131781317913180131811318213183131841318513186131871318813189131901319113192131931319413195131961319713198131991320013201132021320313204132051320613207132081320913210132111321213213132141321513216132171321813219132201322113222132231322413225132261322713228132291323013231132321323313234132351323613237132381323913240132411324213243132441324513246132471324813249132501325113252132531325413255132561325713258132591326013261132621326313264132651326613267132681326913270132711327213273132741327513276132771327813279132801328113282132831328413285132861328713288132891329013291132921329313294132951329613297132981329913300133011330213303133041330513306133071330813309133101331113312133131331413315133161331713318133191332013321133221332313324133251332613327133281332913330133311333213333133341333513336133371333813339133401334113342133431334413345133461334713348133491335013351133521335313354133551335613357133581335913360133611336213363133641336513366133671336813369133701337113372133731337413375133761337713378133791338013381133821338313384133851338613387133881338913390133911339213393133941339513396133971339813399134001340113402134031340413405134061340713408134091341013411134121341313414134151341613417134181341913420134211342213423134241342513426134271342813429134301343113432134331343413435134361343713438134391344013441134421344313444134451344613447134481344913450134511345213453134541345513456134571345813459134601346113462134631346413465134661346713468134691347013471134721347313474134751347613477134781347913480134811348213483134841348513486134871348813489134901349113492134931349413495134961349713498134991350013501135021350313504135051350613507135081350913510135111351213513135141351513516135171351813519135201352113522135231352413525135261352713528135291353013531135321353313534135351353613537135381353913540135411354213543135441354513546135471354813549135501355113552135531355413555135561355713558135591356013561135621356313564135651356613567135681356913570135711357213573135741357513576135771357813579135801358113582135831358413585135861358713588135891359013591135921359313594135951359613597135981359913600136011360213603136041360513606136071360813609136101361113612136131361413615136161361713618136191362013621136221362313624136251362613627136281362913630136311363213633136341363513636136371363813639136401364113642136431364413645136461364713648136491365013651136521365313654136551365613657136581365913660136611366213663136641366513666136671366813669136701367113672136731367413675136761367713678136791368013681136821368313684136851368613687136881368913690136911369213693136941369513696136971369813699137001370113702137031370413705137061370713708137091371013711137121371313714137151371613717137181371913720137211372213723137241372513726137271372813729137301373113732137331373413735137361373713738137391374013741137421374313744137451374613747137481374913750137511375213753137541375513756137571375813759137601376113762137631376413765137661376713768137691377013771137721377313774137751377613777137781377913780137811378213783137841378513786137871378813789137901379113792137931379413795137961379713798137991380013801138021380313804138051380613807138081380913810138111381213813138141381513816138171381813819138201382113822138231382413825138261382713828138291383013831138321383313834138351383613837138381383913840138411384213843138441384513846138471384813849138501385113852138531385413855138561385713858138591386013861138621386313864138651386613867138681386913870138711387213873138741387513876138771387813879138801388113882138831388413885138861388713888138891389013891138921389313894138951389613897138981389913900139011390213903139041390513906139071390813909139101391113912139131391413915139161391713918139191392013921139221392313924139251392613927139281392913930139311393213933139341393513936139371393813939139401394113942139431394413945139461394713948139491395013951139521395313954139551395613957139581395913960139611396213963139641396513966139671396813969139701397113972139731397413975139761397713978139791398013981139821398313984139851398613987139881398913990139911399213993139941399513996139971399813999140001400114002140031400414005140061400714008140091401014011140121401314014140151401614017140181401914020140211402214023140241402514026140271402814029140301403114032140331403414035140361403714038140391404014041140421404314044140451404614047140481404914050140511405214053140541405514056140571405814059140601406114062140631406414065140661406714068140691407014071140721407314074140751407614077140781407914080140811408214083140841408514086140871408814089140901409114092140931409414095140961409714098140991410014101141021410314104141051410614107141081410914110141111411214113141141411514116141171411814119141201412114122141231412414125141261412714128141291413014131141321413314134141351413614137141381413914140141411414214143141441414514146141471414814149141501415114152141531415414155141561415714158141591416014161141621416314164141651416614167141681416914170141711417214173141741417514176141771417814179141801418114182141831418414185141861418714188141891419014191141921419314194141951419614197141981419914200142011420214203142041420514206142071420814209142101421114212142131421414215142161421714218142191422014221142221422314224142251422614227142281422914230142311423214233142341423514236142371423814239142401424114242142431424414245142461424714248142491425014251142521425314254142551425614257142581425914260142611426214263142641426514266142671426814269142701427114272142731427414275142761427714278142791428014281142821428314284142851428614287142881428914290142911429214293142941429514296142971429814299143001430114302143031430414305143061430714308143091431014311143121431314314143151431614317143181431914320143211432214323143241432514326143271432814329143301433114332143331433414335143361433714338143391434014341143421434314344143451434614347143481434914350143511435214353143541435514356143571435814359143601436114362143631436414365143661436714368143691437014371143721437314374143751437614377143781437914380143811438214383143841438514386143871438814389143901439114392143931439414395143961439714398143991440014401144021440314404144051440614407144081440914410144111441214413144141441514416144171441814419144201442114422144231442414425144261442714428144291443014431144321443314434144351443614437144381443914440144411444214443144441444514446144471444814449144501445114452144531445414455144561445714458144591446014461144621446314464144651446614467144681446914470144711447214473144741447514476144771447814479144801448114482144831448414485144861448714488144891449014491144921449314494144951449614497144981449914500145011450214503145041450514506145071450814509145101451114512145131451414515145161451714518145191452014521145221452314524145251452614527145281452914530145311453214533145341453514536145371453814539145401454114542145431454414545145461454714548145491455014551145521455314554145551455614557145581455914560145611456214563145641456514566145671456814569145701457114572145731457414575145761457714578145791458014581145821458314584145851458614587145881458914590145911459214593145941459514596145971459814599146001460114602146031460414605146061460714608146091461014611146121461314614146151461614617146181461914620146211462214623146241462514626146271462814629146301463114632146331463414635146361463714638146391464014641146421464314644146451464614647146481464914650146511465214653146541465514656146571465814659146601466114662146631466414665146661466714668146691467014671146721467314674146751467614677146781467914680146811468214683146841468514686146871468814689146901469114692146931469414695146961469714698146991470014701147021470314704147051470614707147081470914710147111471214713147141471514716147171471814719147201472114722147231472414725147261472714728147291473014731147321473314734147351473614737147381473914740147411474214743147441474514746147471474814749147501475114752147531475414755147561475714758147591476014761147621476314764147651476614767147681476914770147711477214773147741477514776147771477814779147801478114782147831478414785147861478714788147891479014791147921479314794147951479614797147981479914800148011480214803148041480514806148071480814809148101481114812148131481414815148161481714818148191482014821148221482314824148251482614827148281482914830148311483214833148341483514836148371483814839148401484114842148431484414845148461484714848148491485014851148521485314854148551485614857148581485914860148611486214863148641486514866148671486814869148701487114872148731487414875148761487714878148791488014881148821488314884148851488614887148881488914890148911489214893148941489514896148971489814899149001490114902149031490414905149061490714908149091491014911149121491314914149151491614917149181491914920149211492214923149241492514926149271492814929149301493114932149331493414935149361493714938149391494014941149421494314944149451494614947149481494914950149511495214953149541495514956149571495814959149601496114962149631496414965149661496714968149691497014971149721497314974149751497614977149781497914980149811498214983149841498514986149871498814989149901499114992149931499414995149961499714998149991500015001150021500315004150051500615007150081500915010150111501215013150141501515016150171501815019150201502115022150231502415025150261502715028150291503015031150321503315034150351503615037150381503915040150411504215043150441504515046150471504815049150501505115052150531505415055150561505715058150591506015061150621506315064150651506615067150681506915070150711507215073150741507515076150771507815079150801508115082150831508415085150861508715088150891509015091150921509315094150951509615097150981509915100151011510215103151041510515106151071510815109151101511115112151131511415115151161511715118151191512015121151221512315124151251512615127151281512915130151311513215133151341513515136151371513815139151401514115142151431514415145151461514715148151491515015151151521515315154151551515615157151581515915160151611516215163151641516515166151671516815169151701517115172151731517415175151761517715178151791518015181151821518315184151851518615187151881518915190151911519215193151941519515196151971519815199152001520115202152031520415205152061520715208152091521015211152121521315214152151521615217152181521915220152211522215223152241522515226152271522815229152301523115232152331523415235152361523715238152391524015241152421524315244152451524615247152481524915250152511525215253152541525515256152571525815259152601526115262152631526415265152661526715268152691527015271152721527315274152751527615277152781527915280152811528215283152841528515286152871528815289152901529115292152931529415295152961529715298152991530015301153021530315304153051530615307153081530915310153111531215313153141531515316153171531815319153201532115322153231532415325153261532715328153291533015331153321533315334153351533615337153381533915340153411534215343153441534515346153471534815349153501535115352153531535415355153561535715358153591536015361153621536315364153651536615367153681536915370153711537215373153741537515376153771537815379153801538115382153831538415385153861538715388153891539015391153921539315394153951539615397153981539915400154011540215403154041540515406154071540815409154101541115412154131541415415154161541715418154191542015421154221542315424154251542615427154281542915430154311543215433154341543515436154371543815439154401544115442154431544415445154461544715448154491545015451154521545315454154551545615457154581545915460154611546215463154641546515466154671546815469154701547115472154731547415475154761547715478154791548015481154821548315484154851548615487154881548915490154911549215493154941549515496154971549815499155001550115502155031550415505155061550715508155091551015511155121551315514155151551615517155181551915520155211552215523155241552515526155271552815529155301553115532155331553415535155361553715538155391554015541155421554315544155451554615547155481554915550155511555215553155541555515556155571555815559155601556115562155631556415565155661556715568155691557015571155721557315574155751557615577155781557915580155811558215583155841558515586155871558815589155901559115592155931559415595155961559715598155991560015601156021560315604156051560615607156081560915610156111561215613156141561515616156171561815619156201562115622156231562415625156261562715628156291563015631156321563315634156351563615637156381563915640156411564215643156441564515646156471564815649156501565115652156531565415655156561565715658156591566015661156621566315664156651566615667156681566915670156711567215673156741567515676156771567815679156801568115682156831568415685156861568715688156891569015691156921569315694156951569615697156981569915700157011570215703157041570515706157071570815709157101571115712157131571415715157161571715718157191572015721157221572315724157251572615727157281572915730157311573215733157341573515736157371573815739157401574115742157431574415745157461574715748157491575015751157521575315754157551575615757157581575915760157611576215763157641576515766157671576815769157701577115772157731577415775157761577715778157791578015781157821578315784157851578615787157881578915790157911579215793157941579515796157971579815799158001580115802158031580415805158061580715808158091581015811158121581315814158151581615817158181581915820158211582215823158241582515826158271582815829158301583115832158331583415835
  1. /* aes_gcm_asm
  2. *
  3. * Copyright (C) 2006-2021 wolfSSL Inc.
  4. *
  5. * This file is part of wolfSSL.
  6. *
  7. * wolfSSL is free software; you can redistribute it and/or modify
  8. * it under the terms of the GNU General Public License as published by
  9. * the Free Software Foundation; either version 2 of the License, or
  10. * (at your option) any later version.
  11. *
  12. * wolfSSL is distributed in the hope that it will be useful,
  13. * but WITHOUT ANY WARRANTY; without even the implied warranty of
  14. * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE. See the
  15. * GNU General Public License for more details.
  16. *
  17. * You should have received a copy of the GNU General Public License
  18. * along with this program; if not, write to the Free Software
  19. * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1335, USA
  20. */
  21. #ifndef HAVE_INTEL_AVX1
  22. #define HAVE_INTEL_AVX1
  23. #endif /* HAVE_INTEL_AVX1 */
  24. #ifndef NO_AVX2_SUPPORT
  25. #define HAVE_INTEL_AVX2
  26. #endif /* NO_AVX2_SUPPORT */
  27. #ifndef __APPLE__
  28. .data
  29. #else
  30. .section __DATA,__data
  31. #endif /* __APPLE__ */
  32. #ifndef __APPLE__
  33. .align 16
  34. #else
  35. .p2align 4
  36. #endif /* __APPLE__ */
  37. L_aes_gcm_one:
  38. .quad 0x0, 0x1
  39. #ifndef __APPLE__
  40. .data
  41. #else
  42. .section __DATA,__data
  43. #endif /* __APPLE__ */
  44. #ifndef __APPLE__
  45. .align 16
  46. #else
  47. .p2align 4
  48. #endif /* __APPLE__ */
  49. L_aes_gcm_two:
  50. .quad 0x0, 0x2
  51. #ifndef __APPLE__
  52. .data
  53. #else
  54. .section __DATA,__data
  55. #endif /* __APPLE__ */
  56. #ifndef __APPLE__
  57. .align 16
  58. #else
  59. .p2align 4
  60. #endif /* __APPLE__ */
  61. L_aes_gcm_three:
  62. .quad 0x0, 0x3
  63. #ifndef __APPLE__
  64. .data
  65. #else
  66. .section __DATA,__data
  67. #endif /* __APPLE__ */
  68. #ifndef __APPLE__
  69. .align 16
  70. #else
  71. .p2align 4
  72. #endif /* __APPLE__ */
  73. L_aes_gcm_four:
  74. .quad 0x0, 0x4
  75. #ifndef __APPLE__
  76. .data
  77. #else
  78. .section __DATA,__data
  79. #endif /* __APPLE__ */
  80. #ifndef __APPLE__
  81. .align 16
  82. #else
  83. .p2align 4
  84. #endif /* __APPLE__ */
  85. L_aes_gcm_five:
  86. .quad 0x0, 0x5
  87. #ifndef __APPLE__
  88. .data
  89. #else
  90. .section __DATA,__data
  91. #endif /* __APPLE__ */
  92. #ifndef __APPLE__
  93. .align 16
  94. #else
  95. .p2align 4
  96. #endif /* __APPLE__ */
  97. L_aes_gcm_six:
  98. .quad 0x0, 0x6
  99. #ifndef __APPLE__
  100. .data
  101. #else
  102. .section __DATA,__data
  103. #endif /* __APPLE__ */
  104. #ifndef __APPLE__
  105. .align 16
  106. #else
  107. .p2align 4
  108. #endif /* __APPLE__ */
  109. L_aes_gcm_seven:
  110. .quad 0x0, 0x7
  111. #ifndef __APPLE__
  112. .data
  113. #else
  114. .section __DATA,__data
  115. #endif /* __APPLE__ */
  116. #ifndef __APPLE__
  117. .align 16
  118. #else
  119. .p2align 4
  120. #endif /* __APPLE__ */
  121. L_aes_gcm_eight:
  122. .quad 0x0, 0x8
  123. #ifndef __APPLE__
  124. .data
  125. #else
  126. .section __DATA,__data
  127. #endif /* __APPLE__ */
  128. #ifndef __APPLE__
  129. .align 16
  130. #else
  131. .p2align 4
  132. #endif /* __APPLE__ */
  133. L_aes_gcm_bswap_epi64:
  134. .quad 0x1020304050607, 0x8090a0b0c0d0e0f
  135. #ifndef __APPLE__
  136. .data
  137. #else
  138. .section __DATA,__data
  139. #endif /* __APPLE__ */
  140. #ifndef __APPLE__
  141. .align 16
  142. #else
  143. .p2align 4
  144. #endif /* __APPLE__ */
  145. L_aes_gcm_bswap_mask:
  146. .quad 0x8090a0b0c0d0e0f, 0x1020304050607
  147. #ifndef __APPLE__
  148. .data
  149. #else
  150. .section __DATA,__data
  151. #endif /* __APPLE__ */
  152. #ifndef __APPLE__
  153. .align 16
  154. #else
  155. .p2align 4
  156. #endif /* __APPLE__ */
  157. L_aes_gcm_mod2_128:
  158. .quad 0x1, 0xc200000000000000
  159. #ifndef __APPLE__
  160. .text
  161. .globl AES_GCM_encrypt
  162. .type AES_GCM_encrypt,@function
  163. .align 16
  164. AES_GCM_encrypt:
  165. #else
  166. .section __TEXT,__text
  167. .globl _AES_GCM_encrypt
  168. .p2align 4
  169. _AES_GCM_encrypt:
  170. #endif /* __APPLE__ */
  171. pushq %r13
  172. pushq %r12
  173. pushq %rbx
  174. pushq %r14
  175. pushq %r15
  176. movq %rdx, %r12
  177. movq %rcx, %rax
  178. movl 48(%rsp), %r11d
  179. movl 56(%rsp), %ebx
  180. movl 64(%rsp), %r14d
  181. movq 72(%rsp), %r15
  182. movl 80(%rsp), %r10d
  183. subq $0xa0, %rsp
  184. pxor %xmm4, %xmm4
  185. pxor %xmm6, %xmm6
  186. cmpl $12, %ebx
  187. movl %ebx, %edx
  188. jne L_AES_GCM_encrypt_iv_not_12
  189. # # Calculate values when IV is 12 bytes
  190. # Set counter based on IV
  191. movl $0x1000000, %ecx
  192. pinsrq $0x00, (%rax), %xmm4
  193. pinsrd $2, 8(%rax), %xmm4
  194. pinsrd $3, %ecx, %xmm4
  195. # H = Encrypt X(=0) and T = Encrypt counter
  196. movdqa %xmm4, %xmm1
  197. movdqa (%r15), %xmm5
  198. pxor %xmm5, %xmm1
  199. movdqa 16(%r15), %xmm7
  200. aesenc %xmm7, %xmm5
  201. aesenc %xmm7, %xmm1
  202. movdqa 32(%r15), %xmm7
  203. aesenc %xmm7, %xmm5
  204. aesenc %xmm7, %xmm1
  205. movdqa 48(%r15), %xmm7
  206. aesenc %xmm7, %xmm5
  207. aesenc %xmm7, %xmm1
  208. movdqa 64(%r15), %xmm7
  209. aesenc %xmm7, %xmm5
  210. aesenc %xmm7, %xmm1
  211. movdqa 80(%r15), %xmm7
  212. aesenc %xmm7, %xmm5
  213. aesenc %xmm7, %xmm1
  214. movdqa 96(%r15), %xmm7
  215. aesenc %xmm7, %xmm5
  216. aesenc %xmm7, %xmm1
  217. movdqa 112(%r15), %xmm7
  218. aesenc %xmm7, %xmm5
  219. aesenc %xmm7, %xmm1
  220. movdqa 128(%r15), %xmm7
  221. aesenc %xmm7, %xmm5
  222. aesenc %xmm7, %xmm1
  223. movdqa 144(%r15), %xmm7
  224. aesenc %xmm7, %xmm5
  225. aesenc %xmm7, %xmm1
  226. cmpl $11, %r10d
  227. movdqa 160(%r15), %xmm7
  228. jl L_AES_GCM_encrypt_calc_iv_12_last
  229. aesenc %xmm7, %xmm5
  230. aesenc %xmm7, %xmm1
  231. movdqa 176(%r15), %xmm7
  232. aesenc %xmm7, %xmm5
  233. aesenc %xmm7, %xmm1
  234. cmpl $13, %r10d
  235. movdqa 192(%r15), %xmm7
  236. jl L_AES_GCM_encrypt_calc_iv_12_last
  237. aesenc %xmm7, %xmm5
  238. aesenc %xmm7, %xmm1
  239. movdqa 208(%r15), %xmm7
  240. aesenc %xmm7, %xmm5
  241. aesenc %xmm7, %xmm1
  242. movdqa 224(%r15), %xmm7
  243. L_AES_GCM_encrypt_calc_iv_12_last:
  244. aesenclast %xmm7, %xmm5
  245. aesenclast %xmm7, %xmm1
  246. pshufb L_aes_gcm_bswap_mask(%rip), %xmm5
  247. movdqa %xmm1, 144(%rsp)
  248. jmp L_AES_GCM_encrypt_iv_done
  249. L_AES_GCM_encrypt_iv_not_12:
  250. # Calculate values when IV is not 12 bytes
  251. # H = Encrypt X(=0)
  252. movdqa (%r15), %xmm5
  253. aesenc 16(%r15), %xmm5
  254. aesenc 32(%r15), %xmm5
  255. aesenc 48(%r15), %xmm5
  256. aesenc 64(%r15), %xmm5
  257. aesenc 80(%r15), %xmm5
  258. aesenc 96(%r15), %xmm5
  259. aesenc 112(%r15), %xmm5
  260. aesenc 128(%r15), %xmm5
  261. aesenc 144(%r15), %xmm5
  262. cmpl $11, %r10d
  263. movdqa 160(%r15), %xmm9
  264. jl L_AES_GCM_encrypt_calc_iv_1_aesenc_avx_last
  265. aesenc %xmm9, %xmm5
  266. aesenc 176(%r15), %xmm5
  267. cmpl $13, %r10d
  268. movdqa 192(%r15), %xmm9
  269. jl L_AES_GCM_encrypt_calc_iv_1_aesenc_avx_last
  270. aesenc %xmm9, %xmm5
  271. aesenc 208(%r15), %xmm5
  272. movdqa 224(%r15), %xmm9
  273. L_AES_GCM_encrypt_calc_iv_1_aesenc_avx_last:
  274. aesenclast %xmm9, %xmm5
  275. pshufb L_aes_gcm_bswap_mask(%rip), %xmm5
  276. # Calc counter
  277. # Initialization vector
  278. cmpl $0x00, %edx
  279. movq $0x00, %rcx
  280. je L_AES_GCM_encrypt_calc_iv_done
  281. cmpl $16, %edx
  282. jl L_AES_GCM_encrypt_calc_iv_lt16
  283. andl $0xfffffff0, %edx
  284. L_AES_GCM_encrypt_calc_iv_16_loop:
  285. movdqu (%rax,%rcx,1), %xmm8
  286. pshufb L_aes_gcm_bswap_mask(%rip), %xmm8
  287. pxor %xmm8, %xmm4
  288. pshufd $0x4e, %xmm4, %xmm1
  289. pshufd $0x4e, %xmm5, %xmm2
  290. movdqa %xmm5, %xmm3
  291. movdqa %xmm5, %xmm0
  292. pclmulqdq $0x11, %xmm4, %xmm3
  293. pclmulqdq $0x00, %xmm4, %xmm0
  294. pxor %xmm4, %xmm1
  295. pxor %xmm5, %xmm2
  296. pclmulqdq $0x00, %xmm2, %xmm1
  297. pxor %xmm0, %xmm1
  298. pxor %xmm3, %xmm1
  299. movdqa %xmm1, %xmm2
  300. movdqa %xmm0, %xmm7
  301. movdqa %xmm3, %xmm4
  302. pslldq $8, %xmm2
  303. psrldq $8, %xmm1
  304. pxor %xmm2, %xmm7
  305. pxor %xmm1, %xmm4
  306. movdqa %xmm7, %xmm0
  307. movdqa %xmm4, %xmm1
  308. psrld $31, %xmm0
  309. psrld $31, %xmm1
  310. pslld $0x01, %xmm7
  311. pslld $0x01, %xmm4
  312. movdqa %xmm0, %xmm2
  313. pslldq $4, %xmm0
  314. psrldq $12, %xmm2
  315. pslldq $4, %xmm1
  316. por %xmm2, %xmm4
  317. por %xmm0, %xmm7
  318. por %xmm1, %xmm4
  319. movdqa %xmm7, %xmm0
  320. movdqa %xmm7, %xmm1
  321. movdqa %xmm7, %xmm2
  322. pslld $31, %xmm0
  323. pslld $30, %xmm1
  324. pslld $25, %xmm2
  325. pxor %xmm1, %xmm0
  326. pxor %xmm2, %xmm0
  327. movdqa %xmm0, %xmm1
  328. psrldq $4, %xmm1
  329. pslldq $12, %xmm0
  330. pxor %xmm0, %xmm7
  331. movdqa %xmm7, %xmm2
  332. movdqa %xmm7, %xmm3
  333. movdqa %xmm7, %xmm0
  334. psrld $0x01, %xmm2
  335. psrld $2, %xmm3
  336. psrld $7, %xmm0
  337. pxor %xmm3, %xmm2
  338. pxor %xmm0, %xmm2
  339. pxor %xmm1, %xmm2
  340. pxor %xmm7, %xmm2
  341. pxor %xmm2, %xmm4
  342. addl $16, %ecx
  343. cmpl %edx, %ecx
  344. jl L_AES_GCM_encrypt_calc_iv_16_loop
  345. movl %ebx, %edx
  346. cmpl %edx, %ecx
  347. je L_AES_GCM_encrypt_calc_iv_done
  348. L_AES_GCM_encrypt_calc_iv_lt16:
  349. subq $16, %rsp
  350. pxor %xmm8, %xmm8
  351. xorl %ebx, %ebx
  352. movdqa %xmm8, (%rsp)
  353. L_AES_GCM_encrypt_calc_iv_loop:
  354. movzbl (%rax,%rcx,1), %r13d
  355. movb %r13b, (%rsp,%rbx,1)
  356. incl %ecx
  357. incl %ebx
  358. cmpl %edx, %ecx
  359. jl L_AES_GCM_encrypt_calc_iv_loop
  360. movdqa (%rsp), %xmm8
  361. addq $16, %rsp
  362. pshufb L_aes_gcm_bswap_mask(%rip), %xmm8
  363. pxor %xmm8, %xmm4
  364. pshufd $0x4e, %xmm4, %xmm1
  365. pshufd $0x4e, %xmm5, %xmm2
  366. movdqa %xmm5, %xmm3
  367. movdqa %xmm5, %xmm0
  368. pclmulqdq $0x11, %xmm4, %xmm3
  369. pclmulqdq $0x00, %xmm4, %xmm0
  370. pxor %xmm4, %xmm1
  371. pxor %xmm5, %xmm2
  372. pclmulqdq $0x00, %xmm2, %xmm1
  373. pxor %xmm0, %xmm1
  374. pxor %xmm3, %xmm1
  375. movdqa %xmm1, %xmm2
  376. movdqa %xmm0, %xmm7
  377. movdqa %xmm3, %xmm4
  378. pslldq $8, %xmm2
  379. psrldq $8, %xmm1
  380. pxor %xmm2, %xmm7
  381. pxor %xmm1, %xmm4
  382. movdqa %xmm7, %xmm0
  383. movdqa %xmm4, %xmm1
  384. psrld $31, %xmm0
  385. psrld $31, %xmm1
  386. pslld $0x01, %xmm7
  387. pslld $0x01, %xmm4
  388. movdqa %xmm0, %xmm2
  389. pslldq $4, %xmm0
  390. psrldq $12, %xmm2
  391. pslldq $4, %xmm1
  392. por %xmm2, %xmm4
  393. por %xmm0, %xmm7
  394. por %xmm1, %xmm4
  395. movdqa %xmm7, %xmm0
  396. movdqa %xmm7, %xmm1
  397. movdqa %xmm7, %xmm2
  398. pslld $31, %xmm0
  399. pslld $30, %xmm1
  400. pslld $25, %xmm2
  401. pxor %xmm1, %xmm0
  402. pxor %xmm2, %xmm0
  403. movdqa %xmm0, %xmm1
  404. psrldq $4, %xmm1
  405. pslldq $12, %xmm0
  406. pxor %xmm0, %xmm7
  407. movdqa %xmm7, %xmm2
  408. movdqa %xmm7, %xmm3
  409. movdqa %xmm7, %xmm0
  410. psrld $0x01, %xmm2
  411. psrld $2, %xmm3
  412. psrld $7, %xmm0
  413. pxor %xmm3, %xmm2
  414. pxor %xmm0, %xmm2
  415. pxor %xmm1, %xmm2
  416. pxor %xmm7, %xmm2
  417. pxor %xmm2, %xmm4
  418. L_AES_GCM_encrypt_calc_iv_done:
  419. # T = Encrypt counter
  420. pxor %xmm0, %xmm0
  421. shll $3, %edx
  422. pinsrq $0x00, %rdx, %xmm0
  423. pxor %xmm0, %xmm4
  424. pshufd $0x4e, %xmm4, %xmm1
  425. pshufd $0x4e, %xmm5, %xmm2
  426. movdqa %xmm5, %xmm3
  427. movdqa %xmm5, %xmm0
  428. pclmulqdq $0x11, %xmm4, %xmm3
  429. pclmulqdq $0x00, %xmm4, %xmm0
  430. pxor %xmm4, %xmm1
  431. pxor %xmm5, %xmm2
  432. pclmulqdq $0x00, %xmm2, %xmm1
  433. pxor %xmm0, %xmm1
  434. pxor %xmm3, %xmm1
  435. movdqa %xmm1, %xmm2
  436. movdqa %xmm0, %xmm7
  437. movdqa %xmm3, %xmm4
  438. pslldq $8, %xmm2
  439. psrldq $8, %xmm1
  440. pxor %xmm2, %xmm7
  441. pxor %xmm1, %xmm4
  442. movdqa %xmm7, %xmm0
  443. movdqa %xmm4, %xmm1
  444. psrld $31, %xmm0
  445. psrld $31, %xmm1
  446. pslld $0x01, %xmm7
  447. pslld $0x01, %xmm4
  448. movdqa %xmm0, %xmm2
  449. pslldq $4, %xmm0
  450. psrldq $12, %xmm2
  451. pslldq $4, %xmm1
  452. por %xmm2, %xmm4
  453. por %xmm0, %xmm7
  454. por %xmm1, %xmm4
  455. movdqa %xmm7, %xmm0
  456. movdqa %xmm7, %xmm1
  457. movdqa %xmm7, %xmm2
  458. pslld $31, %xmm0
  459. pslld $30, %xmm1
  460. pslld $25, %xmm2
  461. pxor %xmm1, %xmm0
  462. pxor %xmm2, %xmm0
  463. movdqa %xmm0, %xmm1
  464. psrldq $4, %xmm1
  465. pslldq $12, %xmm0
  466. pxor %xmm0, %xmm7
  467. movdqa %xmm7, %xmm2
  468. movdqa %xmm7, %xmm3
  469. movdqa %xmm7, %xmm0
  470. psrld $0x01, %xmm2
  471. psrld $2, %xmm3
  472. psrld $7, %xmm0
  473. pxor %xmm3, %xmm2
  474. pxor %xmm0, %xmm2
  475. pxor %xmm1, %xmm2
  476. pxor %xmm7, %xmm2
  477. pxor %xmm2, %xmm4
  478. pshufb L_aes_gcm_bswap_mask(%rip), %xmm4
  479. # Encrypt counter
  480. movdqa (%r15), %xmm8
  481. pxor %xmm4, %xmm8
  482. aesenc 16(%r15), %xmm8
  483. aesenc 32(%r15), %xmm8
  484. aesenc 48(%r15), %xmm8
  485. aesenc 64(%r15), %xmm8
  486. aesenc 80(%r15), %xmm8
  487. aesenc 96(%r15), %xmm8
  488. aesenc 112(%r15), %xmm8
  489. aesenc 128(%r15), %xmm8
  490. aesenc 144(%r15), %xmm8
  491. cmpl $11, %r10d
  492. movdqa 160(%r15), %xmm9
  493. jl L_AES_GCM_encrypt_calc_iv_2_aesenc_avx_last
  494. aesenc %xmm9, %xmm8
  495. aesenc 176(%r15), %xmm8
  496. cmpl $13, %r10d
  497. movdqa 192(%r15), %xmm9
  498. jl L_AES_GCM_encrypt_calc_iv_2_aesenc_avx_last
  499. aesenc %xmm9, %xmm8
  500. aesenc 208(%r15), %xmm8
  501. movdqa 224(%r15), %xmm9
  502. L_AES_GCM_encrypt_calc_iv_2_aesenc_avx_last:
  503. aesenclast %xmm9, %xmm8
  504. movdqa %xmm8, 144(%rsp)
  505. L_AES_GCM_encrypt_iv_done:
  506. # Additional authentication data
  507. movl %r11d, %edx
  508. cmpl $0x00, %edx
  509. je L_AES_GCM_encrypt_calc_aad_done
  510. xorl %ecx, %ecx
  511. cmpl $16, %edx
  512. jl L_AES_GCM_encrypt_calc_aad_lt16
  513. andl $0xfffffff0, %edx
  514. L_AES_GCM_encrypt_calc_aad_16_loop:
  515. movdqu (%r12,%rcx,1), %xmm8
  516. pshufb L_aes_gcm_bswap_mask(%rip), %xmm8
  517. pxor %xmm8, %xmm6
  518. pshufd $0x4e, %xmm6, %xmm1
  519. pshufd $0x4e, %xmm5, %xmm2
  520. movdqa %xmm5, %xmm3
  521. movdqa %xmm5, %xmm0
  522. pclmulqdq $0x11, %xmm6, %xmm3
  523. pclmulqdq $0x00, %xmm6, %xmm0
  524. pxor %xmm6, %xmm1
  525. pxor %xmm5, %xmm2
  526. pclmulqdq $0x00, %xmm2, %xmm1
  527. pxor %xmm0, %xmm1
  528. pxor %xmm3, %xmm1
  529. movdqa %xmm1, %xmm2
  530. movdqa %xmm0, %xmm7
  531. movdqa %xmm3, %xmm6
  532. pslldq $8, %xmm2
  533. psrldq $8, %xmm1
  534. pxor %xmm2, %xmm7
  535. pxor %xmm1, %xmm6
  536. movdqa %xmm7, %xmm0
  537. movdqa %xmm6, %xmm1
  538. psrld $31, %xmm0
  539. psrld $31, %xmm1
  540. pslld $0x01, %xmm7
  541. pslld $0x01, %xmm6
  542. movdqa %xmm0, %xmm2
  543. pslldq $4, %xmm0
  544. psrldq $12, %xmm2
  545. pslldq $4, %xmm1
  546. por %xmm2, %xmm6
  547. por %xmm0, %xmm7
  548. por %xmm1, %xmm6
  549. movdqa %xmm7, %xmm0
  550. movdqa %xmm7, %xmm1
  551. movdqa %xmm7, %xmm2
  552. pslld $31, %xmm0
  553. pslld $30, %xmm1
  554. pslld $25, %xmm2
  555. pxor %xmm1, %xmm0
  556. pxor %xmm2, %xmm0
  557. movdqa %xmm0, %xmm1
  558. psrldq $4, %xmm1
  559. pslldq $12, %xmm0
  560. pxor %xmm0, %xmm7
  561. movdqa %xmm7, %xmm2
  562. movdqa %xmm7, %xmm3
  563. movdqa %xmm7, %xmm0
  564. psrld $0x01, %xmm2
  565. psrld $2, %xmm3
  566. psrld $7, %xmm0
  567. pxor %xmm3, %xmm2
  568. pxor %xmm0, %xmm2
  569. pxor %xmm1, %xmm2
  570. pxor %xmm7, %xmm2
  571. pxor %xmm2, %xmm6
  572. addl $16, %ecx
  573. cmpl %edx, %ecx
  574. jl L_AES_GCM_encrypt_calc_aad_16_loop
  575. movl %r11d, %edx
  576. cmpl %edx, %ecx
  577. je L_AES_GCM_encrypt_calc_aad_done
  578. L_AES_GCM_encrypt_calc_aad_lt16:
  579. subq $16, %rsp
  580. pxor %xmm8, %xmm8
  581. xorl %ebx, %ebx
  582. movdqa %xmm8, (%rsp)
  583. L_AES_GCM_encrypt_calc_aad_loop:
  584. movzbl (%r12,%rcx,1), %r13d
  585. movb %r13b, (%rsp,%rbx,1)
  586. incl %ecx
  587. incl %ebx
  588. cmpl %edx, %ecx
  589. jl L_AES_GCM_encrypt_calc_aad_loop
  590. movdqa (%rsp), %xmm8
  591. addq $16, %rsp
  592. pshufb L_aes_gcm_bswap_mask(%rip), %xmm8
  593. pxor %xmm8, %xmm6
  594. pshufd $0x4e, %xmm6, %xmm1
  595. pshufd $0x4e, %xmm5, %xmm2
  596. movdqa %xmm5, %xmm3
  597. movdqa %xmm5, %xmm0
  598. pclmulqdq $0x11, %xmm6, %xmm3
  599. pclmulqdq $0x00, %xmm6, %xmm0
  600. pxor %xmm6, %xmm1
  601. pxor %xmm5, %xmm2
  602. pclmulqdq $0x00, %xmm2, %xmm1
  603. pxor %xmm0, %xmm1
  604. pxor %xmm3, %xmm1
  605. movdqa %xmm1, %xmm2
  606. movdqa %xmm0, %xmm7
  607. movdqa %xmm3, %xmm6
  608. pslldq $8, %xmm2
  609. psrldq $8, %xmm1
  610. pxor %xmm2, %xmm7
  611. pxor %xmm1, %xmm6
  612. movdqa %xmm7, %xmm0
  613. movdqa %xmm6, %xmm1
  614. psrld $31, %xmm0
  615. psrld $31, %xmm1
  616. pslld $0x01, %xmm7
  617. pslld $0x01, %xmm6
  618. movdqa %xmm0, %xmm2
  619. pslldq $4, %xmm0
  620. psrldq $12, %xmm2
  621. pslldq $4, %xmm1
  622. por %xmm2, %xmm6
  623. por %xmm0, %xmm7
  624. por %xmm1, %xmm6
  625. movdqa %xmm7, %xmm0
  626. movdqa %xmm7, %xmm1
  627. movdqa %xmm7, %xmm2
  628. pslld $31, %xmm0
  629. pslld $30, %xmm1
  630. pslld $25, %xmm2
  631. pxor %xmm1, %xmm0
  632. pxor %xmm2, %xmm0
  633. movdqa %xmm0, %xmm1
  634. psrldq $4, %xmm1
  635. pslldq $12, %xmm0
  636. pxor %xmm0, %xmm7
  637. movdqa %xmm7, %xmm2
  638. movdqa %xmm7, %xmm3
  639. movdqa %xmm7, %xmm0
  640. psrld $0x01, %xmm2
  641. psrld $2, %xmm3
  642. psrld $7, %xmm0
  643. pxor %xmm3, %xmm2
  644. pxor %xmm0, %xmm2
  645. pxor %xmm1, %xmm2
  646. pxor %xmm7, %xmm2
  647. pxor %xmm2, %xmm6
  648. L_AES_GCM_encrypt_calc_aad_done:
  649. # Calculate counter and H
  650. pshufb L_aes_gcm_bswap_epi64(%rip), %xmm4
  651. movdqa %xmm5, %xmm9
  652. paddd L_aes_gcm_one(%rip), %xmm4
  653. movdqa %xmm5, %xmm8
  654. movdqa %xmm4, 128(%rsp)
  655. psrlq $63, %xmm9
  656. psllq $0x01, %xmm8
  657. pslldq $8, %xmm9
  658. por %xmm9, %xmm8
  659. pshufd $0xff, %xmm5, %xmm5
  660. psrad $31, %xmm5
  661. pand L_aes_gcm_mod2_128(%rip), %xmm5
  662. pxor %xmm8, %xmm5
  663. xorq %rbx, %rbx
  664. cmpl $0x80, %r9d
  665. movl %r9d, %r13d
  666. jl L_AES_GCM_encrypt_done_128
  667. andl $0xffffff80, %r13d
  668. movdqa %xmm6, %xmm2
  669. # H ^ 1
  670. movdqa %xmm5, (%rsp)
  671. # H ^ 2
  672. pshufd $0x4e, %xmm5, %xmm9
  673. pshufd $0x4e, %xmm5, %xmm10
  674. movdqa %xmm5, %xmm11
  675. movdqa %xmm5, %xmm8
  676. pclmulqdq $0x11, %xmm5, %xmm11
  677. pclmulqdq $0x00, %xmm5, %xmm8
  678. pxor %xmm5, %xmm9
  679. pxor %xmm5, %xmm10
  680. pclmulqdq $0x00, %xmm10, %xmm9
  681. pxor %xmm8, %xmm9
  682. pxor %xmm11, %xmm9
  683. movdqa %xmm9, %xmm10
  684. movdqa %xmm11, %xmm0
  685. pslldq $8, %xmm10
  686. psrldq $8, %xmm9
  687. pxor %xmm10, %xmm8
  688. pxor %xmm9, %xmm0
  689. movdqa %xmm8, %xmm12
  690. movdqa %xmm8, %xmm13
  691. movdqa %xmm8, %xmm14
  692. pslld $31, %xmm12
  693. pslld $30, %xmm13
  694. pslld $25, %xmm14
  695. pxor %xmm13, %xmm12
  696. pxor %xmm14, %xmm12
  697. movdqa %xmm12, %xmm13
  698. psrldq $4, %xmm13
  699. pslldq $12, %xmm12
  700. pxor %xmm12, %xmm8
  701. movdqa %xmm8, %xmm14
  702. movdqa %xmm8, %xmm10
  703. movdqa %xmm8, %xmm9
  704. psrld $0x01, %xmm14
  705. psrld $2, %xmm10
  706. psrld $7, %xmm9
  707. pxor %xmm10, %xmm14
  708. pxor %xmm9, %xmm14
  709. pxor %xmm13, %xmm14
  710. pxor %xmm8, %xmm14
  711. pxor %xmm14, %xmm0
  712. movdqa %xmm0, 16(%rsp)
  713. # H ^ 3
  714. pshufd $0x4e, %xmm5, %xmm9
  715. pshufd $0x4e, %xmm0, %xmm10
  716. movdqa %xmm0, %xmm11
  717. movdqa %xmm0, %xmm8
  718. pclmulqdq $0x11, %xmm5, %xmm11
  719. pclmulqdq $0x00, %xmm5, %xmm8
  720. pxor %xmm5, %xmm9
  721. pxor %xmm0, %xmm10
  722. pclmulqdq $0x00, %xmm10, %xmm9
  723. pxor %xmm8, %xmm9
  724. pxor %xmm11, %xmm9
  725. movdqa %xmm9, %xmm10
  726. movdqa %xmm11, %xmm1
  727. pslldq $8, %xmm10
  728. psrldq $8, %xmm9
  729. pxor %xmm10, %xmm8
  730. pxor %xmm9, %xmm1
  731. movdqa %xmm8, %xmm12
  732. movdqa %xmm8, %xmm13
  733. movdqa %xmm8, %xmm14
  734. pslld $31, %xmm12
  735. pslld $30, %xmm13
  736. pslld $25, %xmm14
  737. pxor %xmm13, %xmm12
  738. pxor %xmm14, %xmm12
  739. movdqa %xmm12, %xmm13
  740. psrldq $4, %xmm13
  741. pslldq $12, %xmm12
  742. pxor %xmm12, %xmm8
  743. movdqa %xmm8, %xmm14
  744. movdqa %xmm8, %xmm10
  745. movdqa %xmm8, %xmm9
  746. psrld $0x01, %xmm14
  747. psrld $2, %xmm10
  748. psrld $7, %xmm9
  749. pxor %xmm10, %xmm14
  750. pxor %xmm9, %xmm14
  751. pxor %xmm13, %xmm14
  752. pxor %xmm8, %xmm14
  753. pxor %xmm14, %xmm1
  754. movdqa %xmm1, 32(%rsp)
  755. # H ^ 4
  756. pshufd $0x4e, %xmm0, %xmm9
  757. pshufd $0x4e, %xmm0, %xmm10
  758. movdqa %xmm0, %xmm11
  759. movdqa %xmm0, %xmm8
  760. pclmulqdq $0x11, %xmm0, %xmm11
  761. pclmulqdq $0x00, %xmm0, %xmm8
  762. pxor %xmm0, %xmm9
  763. pxor %xmm0, %xmm10
  764. pclmulqdq $0x00, %xmm10, %xmm9
  765. pxor %xmm8, %xmm9
  766. pxor %xmm11, %xmm9
  767. movdqa %xmm9, %xmm10
  768. movdqa %xmm11, %xmm3
  769. pslldq $8, %xmm10
  770. psrldq $8, %xmm9
  771. pxor %xmm10, %xmm8
  772. pxor %xmm9, %xmm3
  773. movdqa %xmm8, %xmm12
  774. movdqa %xmm8, %xmm13
  775. movdqa %xmm8, %xmm14
  776. pslld $31, %xmm12
  777. pslld $30, %xmm13
  778. pslld $25, %xmm14
  779. pxor %xmm13, %xmm12
  780. pxor %xmm14, %xmm12
  781. movdqa %xmm12, %xmm13
  782. psrldq $4, %xmm13
  783. pslldq $12, %xmm12
  784. pxor %xmm12, %xmm8
  785. movdqa %xmm8, %xmm14
  786. movdqa %xmm8, %xmm10
  787. movdqa %xmm8, %xmm9
  788. psrld $0x01, %xmm14
  789. psrld $2, %xmm10
  790. psrld $7, %xmm9
  791. pxor %xmm10, %xmm14
  792. pxor %xmm9, %xmm14
  793. pxor %xmm13, %xmm14
  794. pxor %xmm8, %xmm14
  795. pxor %xmm14, %xmm3
  796. movdqa %xmm3, 48(%rsp)
  797. # H ^ 5
  798. pshufd $0x4e, %xmm0, %xmm9
  799. pshufd $0x4e, %xmm1, %xmm10
  800. movdqa %xmm1, %xmm11
  801. movdqa %xmm1, %xmm8
  802. pclmulqdq $0x11, %xmm0, %xmm11
  803. pclmulqdq $0x00, %xmm0, %xmm8
  804. pxor %xmm0, %xmm9
  805. pxor %xmm1, %xmm10
  806. pclmulqdq $0x00, %xmm10, %xmm9
  807. pxor %xmm8, %xmm9
  808. pxor %xmm11, %xmm9
  809. movdqa %xmm9, %xmm10
  810. movdqa %xmm11, %xmm7
  811. pslldq $8, %xmm10
  812. psrldq $8, %xmm9
  813. pxor %xmm10, %xmm8
  814. pxor %xmm9, %xmm7
  815. movdqa %xmm8, %xmm12
  816. movdqa %xmm8, %xmm13
  817. movdqa %xmm8, %xmm14
  818. pslld $31, %xmm12
  819. pslld $30, %xmm13
  820. pslld $25, %xmm14
  821. pxor %xmm13, %xmm12
  822. pxor %xmm14, %xmm12
  823. movdqa %xmm12, %xmm13
  824. psrldq $4, %xmm13
  825. pslldq $12, %xmm12
  826. pxor %xmm12, %xmm8
  827. movdqa %xmm8, %xmm14
  828. movdqa %xmm8, %xmm10
  829. movdqa %xmm8, %xmm9
  830. psrld $0x01, %xmm14
  831. psrld $2, %xmm10
  832. psrld $7, %xmm9
  833. pxor %xmm10, %xmm14
  834. pxor %xmm9, %xmm14
  835. pxor %xmm13, %xmm14
  836. pxor %xmm8, %xmm14
  837. pxor %xmm14, %xmm7
  838. movdqa %xmm7, 64(%rsp)
  839. # H ^ 6
  840. pshufd $0x4e, %xmm1, %xmm9
  841. pshufd $0x4e, %xmm1, %xmm10
  842. movdqa %xmm1, %xmm11
  843. movdqa %xmm1, %xmm8
  844. pclmulqdq $0x11, %xmm1, %xmm11
  845. pclmulqdq $0x00, %xmm1, %xmm8
  846. pxor %xmm1, %xmm9
  847. pxor %xmm1, %xmm10
  848. pclmulqdq $0x00, %xmm10, %xmm9
  849. pxor %xmm8, %xmm9
  850. pxor %xmm11, %xmm9
  851. movdqa %xmm9, %xmm10
  852. movdqa %xmm11, %xmm7
  853. pslldq $8, %xmm10
  854. psrldq $8, %xmm9
  855. pxor %xmm10, %xmm8
  856. pxor %xmm9, %xmm7
  857. movdqa %xmm8, %xmm12
  858. movdqa %xmm8, %xmm13
  859. movdqa %xmm8, %xmm14
  860. pslld $31, %xmm12
  861. pslld $30, %xmm13
  862. pslld $25, %xmm14
  863. pxor %xmm13, %xmm12
  864. pxor %xmm14, %xmm12
  865. movdqa %xmm12, %xmm13
  866. psrldq $4, %xmm13
  867. pslldq $12, %xmm12
  868. pxor %xmm12, %xmm8
  869. movdqa %xmm8, %xmm14
  870. movdqa %xmm8, %xmm10
  871. movdqa %xmm8, %xmm9
  872. psrld $0x01, %xmm14
  873. psrld $2, %xmm10
  874. psrld $7, %xmm9
  875. pxor %xmm10, %xmm14
  876. pxor %xmm9, %xmm14
  877. pxor %xmm13, %xmm14
  878. pxor %xmm8, %xmm14
  879. pxor %xmm14, %xmm7
  880. movdqa %xmm7, 80(%rsp)
  881. # H ^ 7
  882. pshufd $0x4e, %xmm1, %xmm9
  883. pshufd $0x4e, %xmm3, %xmm10
  884. movdqa %xmm3, %xmm11
  885. movdqa %xmm3, %xmm8
  886. pclmulqdq $0x11, %xmm1, %xmm11
  887. pclmulqdq $0x00, %xmm1, %xmm8
  888. pxor %xmm1, %xmm9
  889. pxor %xmm3, %xmm10
  890. pclmulqdq $0x00, %xmm10, %xmm9
  891. pxor %xmm8, %xmm9
  892. pxor %xmm11, %xmm9
  893. movdqa %xmm9, %xmm10
  894. movdqa %xmm11, %xmm7
  895. pslldq $8, %xmm10
  896. psrldq $8, %xmm9
  897. pxor %xmm10, %xmm8
  898. pxor %xmm9, %xmm7
  899. movdqa %xmm8, %xmm12
  900. movdqa %xmm8, %xmm13
  901. movdqa %xmm8, %xmm14
  902. pslld $31, %xmm12
  903. pslld $30, %xmm13
  904. pslld $25, %xmm14
  905. pxor %xmm13, %xmm12
  906. pxor %xmm14, %xmm12
  907. movdqa %xmm12, %xmm13
  908. psrldq $4, %xmm13
  909. pslldq $12, %xmm12
  910. pxor %xmm12, %xmm8
  911. movdqa %xmm8, %xmm14
  912. movdqa %xmm8, %xmm10
  913. movdqa %xmm8, %xmm9
  914. psrld $0x01, %xmm14
  915. psrld $2, %xmm10
  916. psrld $7, %xmm9
  917. pxor %xmm10, %xmm14
  918. pxor %xmm9, %xmm14
  919. pxor %xmm13, %xmm14
  920. pxor %xmm8, %xmm14
  921. pxor %xmm14, %xmm7
  922. movdqa %xmm7, 96(%rsp)
  923. # H ^ 8
  924. pshufd $0x4e, %xmm3, %xmm9
  925. pshufd $0x4e, %xmm3, %xmm10
  926. movdqa %xmm3, %xmm11
  927. movdqa %xmm3, %xmm8
  928. pclmulqdq $0x11, %xmm3, %xmm11
  929. pclmulqdq $0x00, %xmm3, %xmm8
  930. pxor %xmm3, %xmm9
  931. pxor %xmm3, %xmm10
  932. pclmulqdq $0x00, %xmm10, %xmm9
  933. pxor %xmm8, %xmm9
  934. pxor %xmm11, %xmm9
  935. movdqa %xmm9, %xmm10
  936. movdqa %xmm11, %xmm7
  937. pslldq $8, %xmm10
  938. psrldq $8, %xmm9
  939. pxor %xmm10, %xmm8
  940. pxor %xmm9, %xmm7
  941. movdqa %xmm8, %xmm12
  942. movdqa %xmm8, %xmm13
  943. movdqa %xmm8, %xmm14
  944. pslld $31, %xmm12
  945. pslld $30, %xmm13
  946. pslld $25, %xmm14
  947. pxor %xmm13, %xmm12
  948. pxor %xmm14, %xmm12
  949. movdqa %xmm12, %xmm13
  950. psrldq $4, %xmm13
  951. pslldq $12, %xmm12
  952. pxor %xmm12, %xmm8
  953. movdqa %xmm8, %xmm14
  954. movdqa %xmm8, %xmm10
  955. movdqa %xmm8, %xmm9
  956. psrld $0x01, %xmm14
  957. psrld $2, %xmm10
  958. psrld $7, %xmm9
  959. pxor %xmm10, %xmm14
  960. pxor %xmm9, %xmm14
  961. pxor %xmm13, %xmm14
  962. pxor %xmm8, %xmm14
  963. pxor %xmm14, %xmm7
  964. movdqa %xmm7, 112(%rsp)
  965. # First 128 bytes of input
  966. movdqa 128(%rsp), %xmm8
  967. movdqa L_aes_gcm_bswap_epi64(%rip), %xmm1
  968. movdqa %xmm8, %xmm0
  969. pshufb %xmm1, %xmm8
  970. movdqa %xmm0, %xmm9
  971. paddd L_aes_gcm_one(%rip), %xmm9
  972. pshufb %xmm1, %xmm9
  973. movdqa %xmm0, %xmm10
  974. paddd L_aes_gcm_two(%rip), %xmm10
  975. pshufb %xmm1, %xmm10
  976. movdqa %xmm0, %xmm11
  977. paddd L_aes_gcm_three(%rip), %xmm11
  978. pshufb %xmm1, %xmm11
  979. movdqa %xmm0, %xmm12
  980. paddd L_aes_gcm_four(%rip), %xmm12
  981. pshufb %xmm1, %xmm12
  982. movdqa %xmm0, %xmm13
  983. paddd L_aes_gcm_five(%rip), %xmm13
  984. pshufb %xmm1, %xmm13
  985. movdqa %xmm0, %xmm14
  986. paddd L_aes_gcm_six(%rip), %xmm14
  987. pshufb %xmm1, %xmm14
  988. movdqa %xmm0, %xmm15
  989. paddd L_aes_gcm_seven(%rip), %xmm15
  990. pshufb %xmm1, %xmm15
  991. paddd L_aes_gcm_eight(%rip), %xmm0
  992. movdqa (%r15), %xmm7
  993. movdqa %xmm0, 128(%rsp)
  994. pxor %xmm7, %xmm8
  995. pxor %xmm7, %xmm9
  996. pxor %xmm7, %xmm10
  997. pxor %xmm7, %xmm11
  998. pxor %xmm7, %xmm12
  999. pxor %xmm7, %xmm13
  1000. pxor %xmm7, %xmm14
  1001. pxor %xmm7, %xmm15
  1002. movdqa 16(%r15), %xmm7
  1003. aesenc %xmm7, %xmm8
  1004. aesenc %xmm7, %xmm9
  1005. aesenc %xmm7, %xmm10
  1006. aesenc %xmm7, %xmm11
  1007. aesenc %xmm7, %xmm12
  1008. aesenc %xmm7, %xmm13
  1009. aesenc %xmm7, %xmm14
  1010. aesenc %xmm7, %xmm15
  1011. movdqa 32(%r15), %xmm7
  1012. aesenc %xmm7, %xmm8
  1013. aesenc %xmm7, %xmm9
  1014. aesenc %xmm7, %xmm10
  1015. aesenc %xmm7, %xmm11
  1016. aesenc %xmm7, %xmm12
  1017. aesenc %xmm7, %xmm13
  1018. aesenc %xmm7, %xmm14
  1019. aesenc %xmm7, %xmm15
  1020. movdqa 48(%r15), %xmm7
  1021. aesenc %xmm7, %xmm8
  1022. aesenc %xmm7, %xmm9
  1023. aesenc %xmm7, %xmm10
  1024. aesenc %xmm7, %xmm11
  1025. aesenc %xmm7, %xmm12
  1026. aesenc %xmm7, %xmm13
  1027. aesenc %xmm7, %xmm14
  1028. aesenc %xmm7, %xmm15
  1029. movdqa 64(%r15), %xmm7
  1030. aesenc %xmm7, %xmm8
  1031. aesenc %xmm7, %xmm9
  1032. aesenc %xmm7, %xmm10
  1033. aesenc %xmm7, %xmm11
  1034. aesenc %xmm7, %xmm12
  1035. aesenc %xmm7, %xmm13
  1036. aesenc %xmm7, %xmm14
  1037. aesenc %xmm7, %xmm15
  1038. movdqa 80(%r15), %xmm7
  1039. aesenc %xmm7, %xmm8
  1040. aesenc %xmm7, %xmm9
  1041. aesenc %xmm7, %xmm10
  1042. aesenc %xmm7, %xmm11
  1043. aesenc %xmm7, %xmm12
  1044. aesenc %xmm7, %xmm13
  1045. aesenc %xmm7, %xmm14
  1046. aesenc %xmm7, %xmm15
  1047. movdqa 96(%r15), %xmm7
  1048. aesenc %xmm7, %xmm8
  1049. aesenc %xmm7, %xmm9
  1050. aesenc %xmm7, %xmm10
  1051. aesenc %xmm7, %xmm11
  1052. aesenc %xmm7, %xmm12
  1053. aesenc %xmm7, %xmm13
  1054. aesenc %xmm7, %xmm14
  1055. aesenc %xmm7, %xmm15
  1056. movdqa 112(%r15), %xmm7
  1057. aesenc %xmm7, %xmm8
  1058. aesenc %xmm7, %xmm9
  1059. aesenc %xmm7, %xmm10
  1060. aesenc %xmm7, %xmm11
  1061. aesenc %xmm7, %xmm12
  1062. aesenc %xmm7, %xmm13
  1063. aesenc %xmm7, %xmm14
  1064. aesenc %xmm7, %xmm15
  1065. movdqa 128(%r15), %xmm7
  1066. aesenc %xmm7, %xmm8
  1067. aesenc %xmm7, %xmm9
  1068. aesenc %xmm7, %xmm10
  1069. aesenc %xmm7, %xmm11
  1070. aesenc %xmm7, %xmm12
  1071. aesenc %xmm7, %xmm13
  1072. aesenc %xmm7, %xmm14
  1073. aesenc %xmm7, %xmm15
  1074. movdqa 144(%r15), %xmm7
  1075. aesenc %xmm7, %xmm8
  1076. aesenc %xmm7, %xmm9
  1077. aesenc %xmm7, %xmm10
  1078. aesenc %xmm7, %xmm11
  1079. aesenc %xmm7, %xmm12
  1080. aesenc %xmm7, %xmm13
  1081. aesenc %xmm7, %xmm14
  1082. aesenc %xmm7, %xmm15
  1083. cmpl $11, %r10d
  1084. movdqa 160(%r15), %xmm7
  1085. jl L_AES_GCM_encrypt_enc_done
  1086. aesenc %xmm7, %xmm8
  1087. aesenc %xmm7, %xmm9
  1088. aesenc %xmm7, %xmm10
  1089. aesenc %xmm7, %xmm11
  1090. aesenc %xmm7, %xmm12
  1091. aesenc %xmm7, %xmm13
  1092. aesenc %xmm7, %xmm14
  1093. aesenc %xmm7, %xmm15
  1094. movdqa 176(%r15), %xmm7
  1095. aesenc %xmm7, %xmm8
  1096. aesenc %xmm7, %xmm9
  1097. aesenc %xmm7, %xmm10
  1098. aesenc %xmm7, %xmm11
  1099. aesenc %xmm7, %xmm12
  1100. aesenc %xmm7, %xmm13
  1101. aesenc %xmm7, %xmm14
  1102. aesenc %xmm7, %xmm15
  1103. cmpl $13, %r10d
  1104. movdqa 192(%r15), %xmm7
  1105. jl L_AES_GCM_encrypt_enc_done
  1106. aesenc %xmm7, %xmm8
  1107. aesenc %xmm7, %xmm9
  1108. aesenc %xmm7, %xmm10
  1109. aesenc %xmm7, %xmm11
  1110. aesenc %xmm7, %xmm12
  1111. aesenc %xmm7, %xmm13
  1112. aesenc %xmm7, %xmm14
  1113. aesenc %xmm7, %xmm15
  1114. movdqa 208(%r15), %xmm7
  1115. aesenc %xmm7, %xmm8
  1116. aesenc %xmm7, %xmm9
  1117. aesenc %xmm7, %xmm10
  1118. aesenc %xmm7, %xmm11
  1119. aesenc %xmm7, %xmm12
  1120. aesenc %xmm7, %xmm13
  1121. aesenc %xmm7, %xmm14
  1122. aesenc %xmm7, %xmm15
  1123. movdqa 224(%r15), %xmm7
  1124. L_AES_GCM_encrypt_enc_done:
  1125. aesenclast %xmm7, %xmm8
  1126. aesenclast %xmm7, %xmm9
  1127. movdqu (%rdi), %xmm0
  1128. movdqu 16(%rdi), %xmm1
  1129. pxor %xmm0, %xmm8
  1130. pxor %xmm1, %xmm9
  1131. movdqu %xmm8, (%rsi)
  1132. movdqu %xmm9, 16(%rsi)
  1133. aesenclast %xmm7, %xmm10
  1134. aesenclast %xmm7, %xmm11
  1135. movdqu 32(%rdi), %xmm0
  1136. movdqu 48(%rdi), %xmm1
  1137. pxor %xmm0, %xmm10
  1138. pxor %xmm1, %xmm11
  1139. movdqu %xmm10, 32(%rsi)
  1140. movdqu %xmm11, 48(%rsi)
  1141. aesenclast %xmm7, %xmm12
  1142. aesenclast %xmm7, %xmm13
  1143. movdqu 64(%rdi), %xmm0
  1144. movdqu 80(%rdi), %xmm1
  1145. pxor %xmm0, %xmm12
  1146. pxor %xmm1, %xmm13
  1147. movdqu %xmm12, 64(%rsi)
  1148. movdqu %xmm13, 80(%rsi)
  1149. aesenclast %xmm7, %xmm14
  1150. aesenclast %xmm7, %xmm15
  1151. movdqu 96(%rdi), %xmm0
  1152. movdqu 112(%rdi), %xmm1
  1153. pxor %xmm0, %xmm14
  1154. pxor %xmm1, %xmm15
  1155. movdqu %xmm14, 96(%rsi)
  1156. movdqu %xmm15, 112(%rsi)
  1157. cmpl $0x80, %r13d
  1158. movl $0x80, %ebx
  1159. jle L_AES_GCM_encrypt_end_128
  1160. # More 128 bytes of input
  1161. L_AES_GCM_encrypt_ghash_128:
  1162. leaq (%rdi,%rbx,1), %rcx
  1163. leaq (%rsi,%rbx,1), %rdx
  1164. movdqa 128(%rsp), %xmm8
  1165. movdqa L_aes_gcm_bswap_epi64(%rip), %xmm1
  1166. movdqa %xmm8, %xmm0
  1167. pshufb %xmm1, %xmm8
  1168. movdqa %xmm0, %xmm9
  1169. paddd L_aes_gcm_one(%rip), %xmm9
  1170. pshufb %xmm1, %xmm9
  1171. movdqa %xmm0, %xmm10
  1172. paddd L_aes_gcm_two(%rip), %xmm10
  1173. pshufb %xmm1, %xmm10
  1174. movdqa %xmm0, %xmm11
  1175. paddd L_aes_gcm_three(%rip), %xmm11
  1176. pshufb %xmm1, %xmm11
  1177. movdqa %xmm0, %xmm12
  1178. paddd L_aes_gcm_four(%rip), %xmm12
  1179. pshufb %xmm1, %xmm12
  1180. movdqa %xmm0, %xmm13
  1181. paddd L_aes_gcm_five(%rip), %xmm13
  1182. pshufb %xmm1, %xmm13
  1183. movdqa %xmm0, %xmm14
  1184. paddd L_aes_gcm_six(%rip), %xmm14
  1185. pshufb %xmm1, %xmm14
  1186. movdqa %xmm0, %xmm15
  1187. paddd L_aes_gcm_seven(%rip), %xmm15
  1188. pshufb %xmm1, %xmm15
  1189. paddd L_aes_gcm_eight(%rip), %xmm0
  1190. movdqa (%r15), %xmm7
  1191. movdqa %xmm0, 128(%rsp)
  1192. pxor %xmm7, %xmm8
  1193. pxor %xmm7, %xmm9
  1194. pxor %xmm7, %xmm10
  1195. pxor %xmm7, %xmm11
  1196. pxor %xmm7, %xmm12
  1197. pxor %xmm7, %xmm13
  1198. pxor %xmm7, %xmm14
  1199. pxor %xmm7, %xmm15
  1200. movdqa 112(%rsp), %xmm7
  1201. movdqu -128(%rdx), %xmm0
  1202. aesenc 16(%r15), %xmm8
  1203. pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
  1204. pxor %xmm2, %xmm0
  1205. pshufd $0x4e, %xmm7, %xmm1
  1206. pshufd $0x4e, %xmm0, %xmm5
  1207. pxor %xmm7, %xmm1
  1208. pxor %xmm0, %xmm5
  1209. movdqa %xmm0, %xmm3
  1210. pclmulqdq $0x11, %xmm7, %xmm3
  1211. aesenc 16(%r15), %xmm9
  1212. aesenc 16(%r15), %xmm10
  1213. movdqa %xmm0, %xmm2
  1214. pclmulqdq $0x00, %xmm7, %xmm2
  1215. aesenc 16(%r15), %xmm11
  1216. aesenc 16(%r15), %xmm12
  1217. pclmulqdq $0x00, %xmm5, %xmm1
  1218. aesenc 16(%r15), %xmm13
  1219. aesenc 16(%r15), %xmm14
  1220. aesenc 16(%r15), %xmm15
  1221. pxor %xmm2, %xmm1
  1222. pxor %xmm3, %xmm1
  1223. movdqa 96(%rsp), %xmm7
  1224. movdqu -112(%rdx), %xmm0
  1225. pshufd $0x4e, %xmm7, %xmm4
  1226. pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
  1227. aesenc 32(%r15), %xmm8
  1228. pxor %xmm7, %xmm4
  1229. pshufd $0x4e, %xmm0, %xmm5
  1230. pxor %xmm0, %xmm5
  1231. movdqa %xmm0, %xmm6
  1232. pclmulqdq $0x11, %xmm7, %xmm6
  1233. aesenc 32(%r15), %xmm9
  1234. aesenc 32(%r15), %xmm10
  1235. pclmulqdq $0x00, %xmm0, %xmm7
  1236. aesenc 32(%r15), %xmm11
  1237. aesenc 32(%r15), %xmm12
  1238. pclmulqdq $0x00, %xmm5, %xmm4
  1239. aesenc 32(%r15), %xmm13
  1240. aesenc 32(%r15), %xmm14
  1241. aesenc 32(%r15), %xmm15
  1242. pxor %xmm7, %xmm1
  1243. pxor %xmm7, %xmm2
  1244. pxor %xmm6, %xmm1
  1245. pxor %xmm6, %xmm3
  1246. pxor %xmm4, %xmm1
  1247. movdqa 80(%rsp), %xmm7
  1248. movdqu -96(%rdx), %xmm0
  1249. pshufd $0x4e, %xmm7, %xmm4
  1250. pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
  1251. aesenc 48(%r15), %xmm8
  1252. pxor %xmm7, %xmm4
  1253. pshufd $0x4e, %xmm0, %xmm5
  1254. pxor %xmm0, %xmm5
  1255. movdqa %xmm0, %xmm6
  1256. pclmulqdq $0x11, %xmm7, %xmm6
  1257. aesenc 48(%r15), %xmm9
  1258. aesenc 48(%r15), %xmm10
  1259. pclmulqdq $0x00, %xmm0, %xmm7
  1260. aesenc 48(%r15), %xmm11
  1261. aesenc 48(%r15), %xmm12
  1262. pclmulqdq $0x00, %xmm5, %xmm4
  1263. aesenc 48(%r15), %xmm13
  1264. aesenc 48(%r15), %xmm14
  1265. aesenc 48(%r15), %xmm15
  1266. pxor %xmm7, %xmm1
  1267. pxor %xmm7, %xmm2
  1268. pxor %xmm6, %xmm1
  1269. pxor %xmm6, %xmm3
  1270. pxor %xmm4, %xmm1
  1271. movdqa 64(%rsp), %xmm7
  1272. movdqu -80(%rdx), %xmm0
  1273. pshufd $0x4e, %xmm7, %xmm4
  1274. pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
  1275. aesenc 64(%r15), %xmm8
  1276. pxor %xmm7, %xmm4
  1277. pshufd $0x4e, %xmm0, %xmm5
  1278. pxor %xmm0, %xmm5
  1279. movdqa %xmm0, %xmm6
  1280. pclmulqdq $0x11, %xmm7, %xmm6
  1281. aesenc 64(%r15), %xmm9
  1282. aesenc 64(%r15), %xmm10
  1283. pclmulqdq $0x00, %xmm0, %xmm7
  1284. aesenc 64(%r15), %xmm11
  1285. aesenc 64(%r15), %xmm12
  1286. pclmulqdq $0x00, %xmm5, %xmm4
  1287. aesenc 64(%r15), %xmm13
  1288. aesenc 64(%r15), %xmm14
  1289. aesenc 64(%r15), %xmm15
  1290. pxor %xmm7, %xmm1
  1291. pxor %xmm7, %xmm2
  1292. pxor %xmm6, %xmm1
  1293. pxor %xmm6, %xmm3
  1294. pxor %xmm4, %xmm1
  1295. movdqa 48(%rsp), %xmm7
  1296. movdqu -64(%rdx), %xmm0
  1297. pshufd $0x4e, %xmm7, %xmm4
  1298. pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
  1299. aesenc 80(%r15), %xmm8
  1300. pxor %xmm7, %xmm4
  1301. pshufd $0x4e, %xmm0, %xmm5
  1302. pxor %xmm0, %xmm5
  1303. movdqa %xmm0, %xmm6
  1304. pclmulqdq $0x11, %xmm7, %xmm6
  1305. aesenc 80(%r15), %xmm9
  1306. aesenc 80(%r15), %xmm10
  1307. pclmulqdq $0x00, %xmm0, %xmm7
  1308. aesenc 80(%r15), %xmm11
  1309. aesenc 80(%r15), %xmm12
  1310. pclmulqdq $0x00, %xmm5, %xmm4
  1311. aesenc 80(%r15), %xmm13
  1312. aesenc 80(%r15), %xmm14
  1313. aesenc 80(%r15), %xmm15
  1314. pxor %xmm7, %xmm1
  1315. pxor %xmm7, %xmm2
  1316. pxor %xmm6, %xmm1
  1317. pxor %xmm6, %xmm3
  1318. pxor %xmm4, %xmm1
  1319. movdqa 32(%rsp), %xmm7
  1320. movdqu -48(%rdx), %xmm0
  1321. pshufd $0x4e, %xmm7, %xmm4
  1322. pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
  1323. aesenc 96(%r15), %xmm8
  1324. pxor %xmm7, %xmm4
  1325. pshufd $0x4e, %xmm0, %xmm5
  1326. pxor %xmm0, %xmm5
  1327. movdqa %xmm0, %xmm6
  1328. pclmulqdq $0x11, %xmm7, %xmm6
  1329. aesenc 96(%r15), %xmm9
  1330. aesenc 96(%r15), %xmm10
  1331. pclmulqdq $0x00, %xmm0, %xmm7
  1332. aesenc 96(%r15), %xmm11
  1333. aesenc 96(%r15), %xmm12
  1334. pclmulqdq $0x00, %xmm5, %xmm4
  1335. aesenc 96(%r15), %xmm13
  1336. aesenc 96(%r15), %xmm14
  1337. aesenc 96(%r15), %xmm15
  1338. pxor %xmm7, %xmm1
  1339. pxor %xmm7, %xmm2
  1340. pxor %xmm6, %xmm1
  1341. pxor %xmm6, %xmm3
  1342. pxor %xmm4, %xmm1
  1343. movdqa 16(%rsp), %xmm7
  1344. movdqu -32(%rdx), %xmm0
  1345. pshufd $0x4e, %xmm7, %xmm4
  1346. pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
  1347. aesenc 112(%r15), %xmm8
  1348. pxor %xmm7, %xmm4
  1349. pshufd $0x4e, %xmm0, %xmm5
  1350. pxor %xmm0, %xmm5
  1351. movdqa %xmm0, %xmm6
  1352. pclmulqdq $0x11, %xmm7, %xmm6
  1353. aesenc 112(%r15), %xmm9
  1354. aesenc 112(%r15), %xmm10
  1355. pclmulqdq $0x00, %xmm0, %xmm7
  1356. aesenc 112(%r15), %xmm11
  1357. aesenc 112(%r15), %xmm12
  1358. pclmulqdq $0x00, %xmm5, %xmm4
  1359. aesenc 112(%r15), %xmm13
  1360. aesenc 112(%r15), %xmm14
  1361. aesenc 112(%r15), %xmm15
  1362. pxor %xmm7, %xmm1
  1363. pxor %xmm7, %xmm2
  1364. pxor %xmm6, %xmm1
  1365. pxor %xmm6, %xmm3
  1366. pxor %xmm4, %xmm1
  1367. movdqa (%rsp), %xmm7
  1368. movdqu -16(%rdx), %xmm0
  1369. pshufd $0x4e, %xmm7, %xmm4
  1370. pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
  1371. aesenc 128(%r15), %xmm8
  1372. pxor %xmm7, %xmm4
  1373. pshufd $0x4e, %xmm0, %xmm5
  1374. pxor %xmm0, %xmm5
  1375. movdqa %xmm0, %xmm6
  1376. pclmulqdq $0x11, %xmm7, %xmm6
  1377. aesenc 128(%r15), %xmm9
  1378. aesenc 128(%r15), %xmm10
  1379. pclmulqdq $0x00, %xmm0, %xmm7
  1380. aesenc 128(%r15), %xmm11
  1381. aesenc 128(%r15), %xmm12
  1382. pclmulqdq $0x00, %xmm5, %xmm4
  1383. aesenc 128(%r15), %xmm13
  1384. aesenc 128(%r15), %xmm14
  1385. aesenc 128(%r15), %xmm15
  1386. pxor %xmm7, %xmm1
  1387. pxor %xmm7, %xmm2
  1388. pxor %xmm6, %xmm1
  1389. pxor %xmm6, %xmm3
  1390. pxor %xmm4, %xmm1
  1391. movdqa %xmm1, %xmm5
  1392. psrldq $8, %xmm1
  1393. pslldq $8, %xmm5
  1394. aesenc 144(%r15), %xmm8
  1395. pxor %xmm5, %xmm2
  1396. pxor %xmm1, %xmm3
  1397. movdqa %xmm2, %xmm7
  1398. movdqa %xmm2, %xmm4
  1399. movdqa %xmm2, %xmm5
  1400. aesenc 144(%r15), %xmm9
  1401. pslld $31, %xmm7
  1402. pslld $30, %xmm4
  1403. pslld $25, %xmm5
  1404. aesenc 144(%r15), %xmm10
  1405. pxor %xmm4, %xmm7
  1406. pxor %xmm5, %xmm7
  1407. aesenc 144(%r15), %xmm11
  1408. movdqa %xmm7, %xmm4
  1409. pslldq $12, %xmm7
  1410. psrldq $4, %xmm4
  1411. aesenc 144(%r15), %xmm12
  1412. pxor %xmm7, %xmm2
  1413. movdqa %xmm2, %xmm5
  1414. movdqa %xmm2, %xmm1
  1415. movdqa %xmm2, %xmm0
  1416. aesenc 144(%r15), %xmm13
  1417. psrld $0x01, %xmm5
  1418. psrld $2, %xmm1
  1419. psrld $7, %xmm0
  1420. aesenc 144(%r15), %xmm14
  1421. pxor %xmm1, %xmm5
  1422. pxor %xmm0, %xmm5
  1423. aesenc 144(%r15), %xmm15
  1424. pxor %xmm4, %xmm5
  1425. pxor %xmm5, %xmm2
  1426. pxor %xmm3, %xmm2
  1427. cmpl $11, %r10d
  1428. movdqa 160(%r15), %xmm7
  1429. jl L_AES_GCM_encrypt_aesenc_128_ghash_avx_done
  1430. aesenc %xmm7, %xmm8
  1431. aesenc %xmm7, %xmm9
  1432. aesenc %xmm7, %xmm10
  1433. aesenc %xmm7, %xmm11
  1434. aesenc %xmm7, %xmm12
  1435. aesenc %xmm7, %xmm13
  1436. aesenc %xmm7, %xmm14
  1437. aesenc %xmm7, %xmm15
  1438. movdqa 176(%r15), %xmm7
  1439. aesenc %xmm7, %xmm8
  1440. aesenc %xmm7, %xmm9
  1441. aesenc %xmm7, %xmm10
  1442. aesenc %xmm7, %xmm11
  1443. aesenc %xmm7, %xmm12
  1444. aesenc %xmm7, %xmm13
  1445. aesenc %xmm7, %xmm14
  1446. aesenc %xmm7, %xmm15
  1447. cmpl $13, %r10d
  1448. movdqa 192(%r15), %xmm7
  1449. jl L_AES_GCM_encrypt_aesenc_128_ghash_avx_done
  1450. aesenc %xmm7, %xmm8
  1451. aesenc %xmm7, %xmm9
  1452. aesenc %xmm7, %xmm10
  1453. aesenc %xmm7, %xmm11
  1454. aesenc %xmm7, %xmm12
  1455. aesenc %xmm7, %xmm13
  1456. aesenc %xmm7, %xmm14
  1457. aesenc %xmm7, %xmm15
  1458. movdqa 208(%r15), %xmm7
  1459. aesenc %xmm7, %xmm8
  1460. aesenc %xmm7, %xmm9
  1461. aesenc %xmm7, %xmm10
  1462. aesenc %xmm7, %xmm11
  1463. aesenc %xmm7, %xmm12
  1464. aesenc %xmm7, %xmm13
  1465. aesenc %xmm7, %xmm14
  1466. aesenc %xmm7, %xmm15
  1467. movdqa 224(%r15), %xmm7
  1468. L_AES_GCM_encrypt_aesenc_128_ghash_avx_done:
  1469. aesenclast %xmm7, %xmm8
  1470. aesenclast %xmm7, %xmm9
  1471. movdqu (%rcx), %xmm0
  1472. movdqu 16(%rcx), %xmm1
  1473. pxor %xmm0, %xmm8
  1474. pxor %xmm1, %xmm9
  1475. movdqu %xmm8, (%rdx)
  1476. movdqu %xmm9, 16(%rdx)
  1477. aesenclast %xmm7, %xmm10
  1478. aesenclast %xmm7, %xmm11
  1479. movdqu 32(%rcx), %xmm0
  1480. movdqu 48(%rcx), %xmm1
  1481. pxor %xmm0, %xmm10
  1482. pxor %xmm1, %xmm11
  1483. movdqu %xmm10, 32(%rdx)
  1484. movdqu %xmm11, 48(%rdx)
  1485. aesenclast %xmm7, %xmm12
  1486. aesenclast %xmm7, %xmm13
  1487. movdqu 64(%rcx), %xmm0
  1488. movdqu 80(%rcx), %xmm1
  1489. pxor %xmm0, %xmm12
  1490. pxor %xmm1, %xmm13
  1491. movdqu %xmm12, 64(%rdx)
  1492. movdqu %xmm13, 80(%rdx)
  1493. aesenclast %xmm7, %xmm14
  1494. aesenclast %xmm7, %xmm15
  1495. movdqu 96(%rcx), %xmm0
  1496. movdqu 112(%rcx), %xmm1
  1497. pxor %xmm0, %xmm14
  1498. pxor %xmm1, %xmm15
  1499. movdqu %xmm14, 96(%rdx)
  1500. movdqu %xmm15, 112(%rdx)
  1501. addl $0x80, %ebx
  1502. cmpl %r13d, %ebx
  1503. jl L_AES_GCM_encrypt_ghash_128
  1504. L_AES_GCM_encrypt_end_128:
  1505. movdqa L_aes_gcm_bswap_mask(%rip), %xmm4
  1506. pshufb %xmm4, %xmm8
  1507. pshufb %xmm4, %xmm9
  1508. pshufb %xmm4, %xmm10
  1509. pshufb %xmm4, %xmm11
  1510. pxor %xmm2, %xmm8
  1511. pshufb %xmm4, %xmm12
  1512. pshufb %xmm4, %xmm13
  1513. pshufb %xmm4, %xmm14
  1514. pshufb %xmm4, %xmm15
  1515. movdqa 112(%rsp), %xmm7
  1516. pshufd $0x4e, %xmm8, %xmm1
  1517. pshufd $0x4e, %xmm7, %xmm2
  1518. movdqa %xmm7, %xmm3
  1519. movdqa %xmm7, %xmm0
  1520. pclmulqdq $0x11, %xmm8, %xmm3
  1521. pclmulqdq $0x00, %xmm8, %xmm0
  1522. pxor %xmm8, %xmm1
  1523. pxor %xmm7, %xmm2
  1524. pclmulqdq $0x00, %xmm2, %xmm1
  1525. pxor %xmm0, %xmm1
  1526. pxor %xmm3, %xmm1
  1527. movdqa %xmm1, %xmm2
  1528. movdqa %xmm0, %xmm4
  1529. movdqa %xmm3, %xmm6
  1530. pslldq $8, %xmm2
  1531. psrldq $8, %xmm1
  1532. pxor %xmm2, %xmm4
  1533. pxor %xmm1, %xmm6
  1534. movdqa 96(%rsp), %xmm7
  1535. pshufd $0x4e, %xmm9, %xmm1
  1536. pshufd $0x4e, %xmm7, %xmm2
  1537. movdqa %xmm7, %xmm3
  1538. movdqa %xmm7, %xmm0
  1539. pclmulqdq $0x11, %xmm9, %xmm3
  1540. pclmulqdq $0x00, %xmm9, %xmm0
  1541. pxor %xmm9, %xmm1
  1542. pxor %xmm7, %xmm2
  1543. pclmulqdq $0x00, %xmm2, %xmm1
  1544. pxor %xmm0, %xmm1
  1545. pxor %xmm3, %xmm1
  1546. movdqa %xmm1, %xmm2
  1547. pxor %xmm0, %xmm4
  1548. pxor %xmm3, %xmm6
  1549. pslldq $8, %xmm2
  1550. psrldq $8, %xmm1
  1551. pxor %xmm2, %xmm4
  1552. pxor %xmm1, %xmm6
  1553. movdqa 80(%rsp), %xmm7
  1554. pshufd $0x4e, %xmm10, %xmm1
  1555. pshufd $0x4e, %xmm7, %xmm2
  1556. movdqa %xmm7, %xmm3
  1557. movdqa %xmm7, %xmm0
  1558. pclmulqdq $0x11, %xmm10, %xmm3
  1559. pclmulqdq $0x00, %xmm10, %xmm0
  1560. pxor %xmm10, %xmm1
  1561. pxor %xmm7, %xmm2
  1562. pclmulqdq $0x00, %xmm2, %xmm1
  1563. pxor %xmm0, %xmm1
  1564. pxor %xmm3, %xmm1
  1565. movdqa %xmm1, %xmm2
  1566. pxor %xmm0, %xmm4
  1567. pxor %xmm3, %xmm6
  1568. pslldq $8, %xmm2
  1569. psrldq $8, %xmm1
  1570. pxor %xmm2, %xmm4
  1571. pxor %xmm1, %xmm6
  1572. movdqa 64(%rsp), %xmm7
  1573. pshufd $0x4e, %xmm11, %xmm1
  1574. pshufd $0x4e, %xmm7, %xmm2
  1575. movdqa %xmm7, %xmm3
  1576. movdqa %xmm7, %xmm0
  1577. pclmulqdq $0x11, %xmm11, %xmm3
  1578. pclmulqdq $0x00, %xmm11, %xmm0
  1579. pxor %xmm11, %xmm1
  1580. pxor %xmm7, %xmm2
  1581. pclmulqdq $0x00, %xmm2, %xmm1
  1582. pxor %xmm0, %xmm1
  1583. pxor %xmm3, %xmm1
  1584. movdqa %xmm1, %xmm2
  1585. pxor %xmm0, %xmm4
  1586. pxor %xmm3, %xmm6
  1587. pslldq $8, %xmm2
  1588. psrldq $8, %xmm1
  1589. pxor %xmm2, %xmm4
  1590. pxor %xmm1, %xmm6
  1591. movdqa 48(%rsp), %xmm7
  1592. pshufd $0x4e, %xmm12, %xmm1
  1593. pshufd $0x4e, %xmm7, %xmm2
  1594. movdqa %xmm7, %xmm3
  1595. movdqa %xmm7, %xmm0
  1596. pclmulqdq $0x11, %xmm12, %xmm3
  1597. pclmulqdq $0x00, %xmm12, %xmm0
  1598. pxor %xmm12, %xmm1
  1599. pxor %xmm7, %xmm2
  1600. pclmulqdq $0x00, %xmm2, %xmm1
  1601. pxor %xmm0, %xmm1
  1602. pxor %xmm3, %xmm1
  1603. movdqa %xmm1, %xmm2
  1604. pxor %xmm0, %xmm4
  1605. pxor %xmm3, %xmm6
  1606. pslldq $8, %xmm2
  1607. psrldq $8, %xmm1
  1608. pxor %xmm2, %xmm4
  1609. pxor %xmm1, %xmm6
  1610. movdqa 32(%rsp), %xmm7
  1611. pshufd $0x4e, %xmm13, %xmm1
  1612. pshufd $0x4e, %xmm7, %xmm2
  1613. movdqa %xmm7, %xmm3
  1614. movdqa %xmm7, %xmm0
  1615. pclmulqdq $0x11, %xmm13, %xmm3
  1616. pclmulqdq $0x00, %xmm13, %xmm0
  1617. pxor %xmm13, %xmm1
  1618. pxor %xmm7, %xmm2
  1619. pclmulqdq $0x00, %xmm2, %xmm1
  1620. pxor %xmm0, %xmm1
  1621. pxor %xmm3, %xmm1
  1622. movdqa %xmm1, %xmm2
  1623. pxor %xmm0, %xmm4
  1624. pxor %xmm3, %xmm6
  1625. pslldq $8, %xmm2
  1626. psrldq $8, %xmm1
  1627. pxor %xmm2, %xmm4
  1628. pxor %xmm1, %xmm6
  1629. movdqa 16(%rsp), %xmm7
  1630. pshufd $0x4e, %xmm14, %xmm1
  1631. pshufd $0x4e, %xmm7, %xmm2
  1632. movdqa %xmm7, %xmm3
  1633. movdqa %xmm7, %xmm0
  1634. pclmulqdq $0x11, %xmm14, %xmm3
  1635. pclmulqdq $0x00, %xmm14, %xmm0
  1636. pxor %xmm14, %xmm1
  1637. pxor %xmm7, %xmm2
  1638. pclmulqdq $0x00, %xmm2, %xmm1
  1639. pxor %xmm0, %xmm1
  1640. pxor %xmm3, %xmm1
  1641. movdqa %xmm1, %xmm2
  1642. pxor %xmm0, %xmm4
  1643. pxor %xmm3, %xmm6
  1644. pslldq $8, %xmm2
  1645. psrldq $8, %xmm1
  1646. pxor %xmm2, %xmm4
  1647. pxor %xmm1, %xmm6
  1648. movdqa (%rsp), %xmm7
  1649. pshufd $0x4e, %xmm15, %xmm1
  1650. pshufd $0x4e, %xmm7, %xmm2
  1651. movdqa %xmm7, %xmm3
  1652. movdqa %xmm7, %xmm0
  1653. pclmulqdq $0x11, %xmm15, %xmm3
  1654. pclmulqdq $0x00, %xmm15, %xmm0
  1655. pxor %xmm15, %xmm1
  1656. pxor %xmm7, %xmm2
  1657. pclmulqdq $0x00, %xmm2, %xmm1
  1658. pxor %xmm0, %xmm1
  1659. pxor %xmm3, %xmm1
  1660. movdqa %xmm1, %xmm2
  1661. pxor %xmm0, %xmm4
  1662. pxor %xmm3, %xmm6
  1663. pslldq $8, %xmm2
  1664. psrldq $8, %xmm1
  1665. pxor %xmm2, %xmm4
  1666. pxor %xmm1, %xmm6
  1667. movdqa %xmm4, %xmm0
  1668. movdqa %xmm4, %xmm1
  1669. movdqa %xmm4, %xmm2
  1670. pslld $31, %xmm0
  1671. pslld $30, %xmm1
  1672. pslld $25, %xmm2
  1673. pxor %xmm1, %xmm0
  1674. pxor %xmm2, %xmm0
  1675. movdqa %xmm0, %xmm1
  1676. psrldq $4, %xmm1
  1677. pslldq $12, %xmm0
  1678. pxor %xmm0, %xmm4
  1679. movdqa %xmm4, %xmm2
  1680. movdqa %xmm4, %xmm3
  1681. movdqa %xmm4, %xmm0
  1682. psrld $0x01, %xmm2
  1683. psrld $2, %xmm3
  1684. psrld $7, %xmm0
  1685. pxor %xmm3, %xmm2
  1686. pxor %xmm0, %xmm2
  1687. pxor %xmm1, %xmm2
  1688. pxor %xmm4, %xmm2
  1689. pxor %xmm2, %xmm6
  1690. movdqa (%rsp), %xmm5
  1691. L_AES_GCM_encrypt_done_128:
  1692. movl %r9d, %edx
  1693. cmpl %edx, %ebx
  1694. jge L_AES_GCM_encrypt_done_enc
  1695. movl %r9d, %r13d
  1696. andl $0xfffffff0, %r13d
  1697. cmpl %r13d, %ebx
  1698. jge L_AES_GCM_encrypt_last_block_done
  1699. leaq (%rdi,%rbx,1), %rcx
  1700. leaq (%rsi,%rbx,1), %rdx
  1701. movdqa 128(%rsp), %xmm8
  1702. movdqa %xmm8, %xmm9
  1703. pshufb L_aes_gcm_bswap_epi64(%rip), %xmm8
  1704. paddd L_aes_gcm_one(%rip), %xmm9
  1705. pxor (%r15), %xmm8
  1706. movdqa %xmm9, 128(%rsp)
  1707. aesenc 16(%r15), %xmm8
  1708. aesenc 32(%r15), %xmm8
  1709. aesenc 48(%r15), %xmm8
  1710. aesenc 64(%r15), %xmm8
  1711. aesenc 80(%r15), %xmm8
  1712. aesenc 96(%r15), %xmm8
  1713. aesenc 112(%r15), %xmm8
  1714. aesenc 128(%r15), %xmm8
  1715. aesenc 144(%r15), %xmm8
  1716. cmpl $11, %r10d
  1717. movdqa 160(%r15), %xmm9
  1718. jl L_AES_GCM_encrypt_aesenc_block_aesenc_avx_last
  1719. aesenc %xmm9, %xmm8
  1720. aesenc 176(%r15), %xmm8
  1721. cmpl $13, %r10d
  1722. movdqa 192(%r15), %xmm9
  1723. jl L_AES_GCM_encrypt_aesenc_block_aesenc_avx_last
  1724. aesenc %xmm9, %xmm8
  1725. aesenc 208(%r15), %xmm8
  1726. movdqa 224(%r15), %xmm9
  1727. L_AES_GCM_encrypt_aesenc_block_aesenc_avx_last:
  1728. aesenclast %xmm9, %xmm8
  1729. movdqu (%rcx), %xmm9
  1730. pxor %xmm9, %xmm8
  1731. movdqu %xmm8, (%rdx)
  1732. pshufb L_aes_gcm_bswap_mask(%rip), %xmm8
  1733. pxor %xmm8, %xmm6
  1734. addl $16, %ebx
  1735. cmpl %r13d, %ebx
  1736. jge L_AES_GCM_encrypt_last_block_ghash
  1737. L_AES_GCM_encrypt_last_block_start:
  1738. leaq (%rdi,%rbx,1), %rcx
  1739. leaq (%rsi,%rbx,1), %rdx
  1740. movdqa 128(%rsp), %xmm8
  1741. movdqa %xmm8, %xmm9
  1742. pshufb L_aes_gcm_bswap_epi64(%rip), %xmm8
  1743. paddd L_aes_gcm_one(%rip), %xmm9
  1744. pxor (%r15), %xmm8
  1745. movdqa %xmm9, 128(%rsp)
  1746. movdqa %xmm6, %xmm10
  1747. pclmulqdq $16, %xmm5, %xmm10
  1748. aesenc 16(%r15), %xmm8
  1749. aesenc 32(%r15), %xmm8
  1750. movdqa %xmm6, %xmm11
  1751. pclmulqdq $0x01, %xmm5, %xmm11
  1752. aesenc 48(%r15), %xmm8
  1753. aesenc 64(%r15), %xmm8
  1754. movdqa %xmm6, %xmm12
  1755. pclmulqdq $0x00, %xmm5, %xmm12
  1756. aesenc 80(%r15), %xmm8
  1757. movdqa %xmm6, %xmm1
  1758. pclmulqdq $0x11, %xmm5, %xmm1
  1759. aesenc 96(%r15), %xmm8
  1760. pxor %xmm11, %xmm10
  1761. movdqa %xmm10, %xmm2
  1762. psrldq $8, %xmm10
  1763. pslldq $8, %xmm2
  1764. aesenc 112(%r15), %xmm8
  1765. movdqa %xmm1, %xmm3
  1766. pxor %xmm12, %xmm2
  1767. pxor %xmm10, %xmm3
  1768. movdqa L_aes_gcm_mod2_128(%rip), %xmm0
  1769. movdqa %xmm2, %xmm11
  1770. pclmulqdq $16, %xmm0, %xmm11
  1771. aesenc 128(%r15), %xmm8
  1772. pshufd $0x4e, %xmm2, %xmm10
  1773. pxor %xmm11, %xmm10
  1774. movdqa %xmm10, %xmm11
  1775. pclmulqdq $16, %xmm0, %xmm11
  1776. aesenc 144(%r15), %xmm8
  1777. pshufd $0x4e, %xmm10, %xmm6
  1778. pxor %xmm11, %xmm6
  1779. pxor %xmm3, %xmm6
  1780. cmpl $11, %r10d
  1781. movdqa 160(%r15), %xmm9
  1782. jl L_AES_GCM_encrypt_aesenc_gfmul_last
  1783. aesenc %xmm9, %xmm8
  1784. aesenc 176(%r15), %xmm8
  1785. cmpl $13, %r10d
  1786. movdqa 192(%r15), %xmm9
  1787. jl L_AES_GCM_encrypt_aesenc_gfmul_last
  1788. aesenc %xmm9, %xmm8
  1789. aesenc 208(%r15), %xmm8
  1790. movdqa 224(%r15), %xmm9
  1791. L_AES_GCM_encrypt_aesenc_gfmul_last:
  1792. aesenclast %xmm9, %xmm8
  1793. movdqu (%rcx), %xmm9
  1794. pxor %xmm9, %xmm8
  1795. movdqu %xmm8, (%rdx)
  1796. pshufb L_aes_gcm_bswap_mask(%rip), %xmm8
  1797. pxor %xmm8, %xmm6
  1798. addl $16, %ebx
  1799. cmpl %r13d, %ebx
  1800. jl L_AES_GCM_encrypt_last_block_start
  1801. L_AES_GCM_encrypt_last_block_ghash:
  1802. pshufd $0x4e, %xmm5, %xmm9
  1803. pshufd $0x4e, %xmm6, %xmm10
  1804. movdqa %xmm6, %xmm11
  1805. movdqa %xmm6, %xmm8
  1806. pclmulqdq $0x11, %xmm5, %xmm11
  1807. pclmulqdq $0x00, %xmm5, %xmm8
  1808. pxor %xmm5, %xmm9
  1809. pxor %xmm6, %xmm10
  1810. pclmulqdq $0x00, %xmm10, %xmm9
  1811. pxor %xmm8, %xmm9
  1812. pxor %xmm11, %xmm9
  1813. movdqa %xmm9, %xmm10
  1814. movdqa %xmm11, %xmm6
  1815. pslldq $8, %xmm10
  1816. psrldq $8, %xmm9
  1817. pxor %xmm10, %xmm8
  1818. pxor %xmm9, %xmm6
  1819. movdqa %xmm8, %xmm12
  1820. movdqa %xmm8, %xmm13
  1821. movdqa %xmm8, %xmm14
  1822. pslld $31, %xmm12
  1823. pslld $30, %xmm13
  1824. pslld $25, %xmm14
  1825. pxor %xmm13, %xmm12
  1826. pxor %xmm14, %xmm12
  1827. movdqa %xmm12, %xmm13
  1828. psrldq $4, %xmm13
  1829. pslldq $12, %xmm12
  1830. pxor %xmm12, %xmm8
  1831. movdqa %xmm8, %xmm14
  1832. movdqa %xmm8, %xmm10
  1833. movdqa %xmm8, %xmm9
  1834. psrld $0x01, %xmm14
  1835. psrld $2, %xmm10
  1836. psrld $7, %xmm9
  1837. pxor %xmm10, %xmm14
  1838. pxor %xmm9, %xmm14
  1839. pxor %xmm13, %xmm14
  1840. pxor %xmm8, %xmm14
  1841. pxor %xmm14, %xmm6
  1842. L_AES_GCM_encrypt_last_block_done:
  1843. movl %r9d, %ecx
  1844. movl %ecx, %edx
  1845. andl $15, %ecx
  1846. jz L_AES_GCM_encrypt_aesenc_last15_enc_avx_done
  1847. movdqa 128(%rsp), %xmm4
  1848. pshufb L_aes_gcm_bswap_epi64(%rip), %xmm4
  1849. pxor (%r15), %xmm4
  1850. aesenc 16(%r15), %xmm4
  1851. aesenc 32(%r15), %xmm4
  1852. aesenc 48(%r15), %xmm4
  1853. aesenc 64(%r15), %xmm4
  1854. aesenc 80(%r15), %xmm4
  1855. aesenc 96(%r15), %xmm4
  1856. aesenc 112(%r15), %xmm4
  1857. aesenc 128(%r15), %xmm4
  1858. aesenc 144(%r15), %xmm4
  1859. cmpl $11, %r10d
  1860. movdqa 160(%r15), %xmm9
  1861. jl L_AES_GCM_encrypt_aesenc_last15_enc_avx_aesenc_avx_last
  1862. aesenc %xmm9, %xmm4
  1863. aesenc 176(%r15), %xmm4
  1864. cmpl $13, %r10d
  1865. movdqa 192(%r15), %xmm9
  1866. jl L_AES_GCM_encrypt_aesenc_last15_enc_avx_aesenc_avx_last
  1867. aesenc %xmm9, %xmm4
  1868. aesenc 208(%r15), %xmm4
  1869. movdqa 224(%r15), %xmm9
  1870. L_AES_GCM_encrypt_aesenc_last15_enc_avx_aesenc_avx_last:
  1871. aesenclast %xmm9, %xmm4
  1872. subq $16, %rsp
  1873. xorl %ecx, %ecx
  1874. movdqa %xmm4, (%rsp)
  1875. L_AES_GCM_encrypt_aesenc_last15_enc_avx_loop:
  1876. movzbl (%rdi,%rbx,1), %r13d
  1877. xorb (%rsp,%rcx,1), %r13b
  1878. movb %r13b, (%rsi,%rbx,1)
  1879. movb %r13b, (%rsp,%rcx,1)
  1880. incl %ebx
  1881. incl %ecx
  1882. cmpl %edx, %ebx
  1883. jl L_AES_GCM_encrypt_aesenc_last15_enc_avx_loop
  1884. xorq %r13, %r13
  1885. cmpl $16, %ecx
  1886. je L_AES_GCM_encrypt_aesenc_last15_enc_avx_finish_enc
  1887. L_AES_GCM_encrypt_aesenc_last15_enc_avx_byte_loop:
  1888. movb %r13b, (%rsp,%rcx,1)
  1889. incl %ecx
  1890. cmpl $16, %ecx
  1891. jl L_AES_GCM_encrypt_aesenc_last15_enc_avx_byte_loop
  1892. L_AES_GCM_encrypt_aesenc_last15_enc_avx_finish_enc:
  1893. movdqa (%rsp), %xmm4
  1894. addq $16, %rsp
  1895. pshufb L_aes_gcm_bswap_mask(%rip), %xmm4
  1896. pxor %xmm4, %xmm6
  1897. pshufd $0x4e, %xmm5, %xmm9
  1898. pshufd $0x4e, %xmm6, %xmm10
  1899. movdqa %xmm6, %xmm11
  1900. movdqa %xmm6, %xmm8
  1901. pclmulqdq $0x11, %xmm5, %xmm11
  1902. pclmulqdq $0x00, %xmm5, %xmm8
  1903. pxor %xmm5, %xmm9
  1904. pxor %xmm6, %xmm10
  1905. pclmulqdq $0x00, %xmm10, %xmm9
  1906. pxor %xmm8, %xmm9
  1907. pxor %xmm11, %xmm9
  1908. movdqa %xmm9, %xmm10
  1909. movdqa %xmm11, %xmm6
  1910. pslldq $8, %xmm10
  1911. psrldq $8, %xmm9
  1912. pxor %xmm10, %xmm8
  1913. pxor %xmm9, %xmm6
  1914. movdqa %xmm8, %xmm12
  1915. movdqa %xmm8, %xmm13
  1916. movdqa %xmm8, %xmm14
  1917. pslld $31, %xmm12
  1918. pslld $30, %xmm13
  1919. pslld $25, %xmm14
  1920. pxor %xmm13, %xmm12
  1921. pxor %xmm14, %xmm12
  1922. movdqa %xmm12, %xmm13
  1923. psrldq $4, %xmm13
  1924. pslldq $12, %xmm12
  1925. pxor %xmm12, %xmm8
  1926. movdqa %xmm8, %xmm14
  1927. movdqa %xmm8, %xmm10
  1928. movdqa %xmm8, %xmm9
  1929. psrld $0x01, %xmm14
  1930. psrld $2, %xmm10
  1931. psrld $7, %xmm9
  1932. pxor %xmm10, %xmm14
  1933. pxor %xmm9, %xmm14
  1934. pxor %xmm13, %xmm14
  1935. pxor %xmm8, %xmm14
  1936. pxor %xmm14, %xmm6
  1937. L_AES_GCM_encrypt_aesenc_last15_enc_avx_done:
  1938. L_AES_GCM_encrypt_done_enc:
  1939. movl %r9d, %edx
  1940. movl %r11d, %ecx
  1941. shlq $3, %rdx
  1942. shlq $3, %rcx
  1943. pinsrq $0x00, %rdx, %xmm0
  1944. pinsrq $0x01, %rcx, %xmm0
  1945. pxor %xmm0, %xmm6
  1946. pshufd $0x4e, %xmm5, %xmm9
  1947. pshufd $0x4e, %xmm6, %xmm10
  1948. movdqa %xmm6, %xmm11
  1949. movdqa %xmm6, %xmm8
  1950. pclmulqdq $0x11, %xmm5, %xmm11
  1951. pclmulqdq $0x00, %xmm5, %xmm8
  1952. pxor %xmm5, %xmm9
  1953. pxor %xmm6, %xmm10
  1954. pclmulqdq $0x00, %xmm10, %xmm9
  1955. pxor %xmm8, %xmm9
  1956. pxor %xmm11, %xmm9
  1957. movdqa %xmm9, %xmm10
  1958. movdqa %xmm11, %xmm6
  1959. pslldq $8, %xmm10
  1960. psrldq $8, %xmm9
  1961. pxor %xmm10, %xmm8
  1962. pxor %xmm9, %xmm6
  1963. movdqa %xmm8, %xmm12
  1964. movdqa %xmm8, %xmm13
  1965. movdqa %xmm8, %xmm14
  1966. pslld $31, %xmm12
  1967. pslld $30, %xmm13
  1968. pslld $25, %xmm14
  1969. pxor %xmm13, %xmm12
  1970. pxor %xmm14, %xmm12
  1971. movdqa %xmm12, %xmm13
  1972. psrldq $4, %xmm13
  1973. pslldq $12, %xmm12
  1974. pxor %xmm12, %xmm8
  1975. movdqa %xmm8, %xmm14
  1976. movdqa %xmm8, %xmm10
  1977. movdqa %xmm8, %xmm9
  1978. psrld $0x01, %xmm14
  1979. psrld $2, %xmm10
  1980. psrld $7, %xmm9
  1981. pxor %xmm10, %xmm14
  1982. pxor %xmm9, %xmm14
  1983. pxor %xmm13, %xmm14
  1984. pxor %xmm8, %xmm14
  1985. pxor %xmm14, %xmm6
  1986. pshufb L_aes_gcm_bswap_mask(%rip), %xmm6
  1987. movdqa 144(%rsp), %xmm0
  1988. pxor %xmm6, %xmm0
  1989. cmpl $16, %r14d
  1990. je L_AES_GCM_encrypt_store_tag_16
  1991. xorq %rcx, %rcx
  1992. movdqa %xmm0, (%rsp)
  1993. L_AES_GCM_encrypt_store_tag_loop:
  1994. movzbl (%rsp,%rcx,1), %r13d
  1995. movb %r13b, (%r8,%rcx,1)
  1996. incl %ecx
  1997. cmpl %r14d, %ecx
  1998. jne L_AES_GCM_encrypt_store_tag_loop
  1999. jmp L_AES_GCM_encrypt_store_tag_done
  2000. L_AES_GCM_encrypt_store_tag_16:
  2001. movdqu %xmm0, (%r8)
  2002. L_AES_GCM_encrypt_store_tag_done:
  2003. addq $0xa0, %rsp
  2004. popq %r15
  2005. popq %r14
  2006. popq %rbx
  2007. popq %r12
  2008. popq %r13
  2009. repz retq
  2010. #ifndef __APPLE__
  2011. .size AES_GCM_encrypt,.-AES_GCM_encrypt
  2012. #endif /* __APPLE__ */
  2013. #ifndef __APPLE__
  2014. .text
  2015. .globl AES_GCM_decrypt
  2016. .type AES_GCM_decrypt,@function
  2017. .align 16
  2018. AES_GCM_decrypt:
  2019. #else
  2020. .section __TEXT,__text
  2021. .globl _AES_GCM_decrypt
  2022. .p2align 4
  2023. _AES_GCM_decrypt:
  2024. #endif /* __APPLE__ */
  2025. pushq %r13
  2026. pushq %r12
  2027. pushq %rbx
  2028. pushq %r14
  2029. pushq %r15
  2030. pushq %rbp
  2031. movq %rdx, %r12
  2032. movq %rcx, %rax
  2033. movl 56(%rsp), %r11d
  2034. movl 64(%rsp), %ebx
  2035. movl 72(%rsp), %r14d
  2036. movq 80(%rsp), %r15
  2037. movl 88(%rsp), %r10d
  2038. movq 96(%rsp), %rbp
  2039. subq $0xa8, %rsp
  2040. pxor %xmm4, %xmm4
  2041. pxor %xmm6, %xmm6
  2042. cmpl $12, %ebx
  2043. movl %ebx, %edx
  2044. jne L_AES_GCM_decrypt_iv_not_12
  2045. # # Calculate values when IV is 12 bytes
  2046. # Set counter based on IV
  2047. movl $0x1000000, %ecx
  2048. pinsrq $0x00, (%rax), %xmm4
  2049. pinsrd $2, 8(%rax), %xmm4
  2050. pinsrd $3, %ecx, %xmm4
  2051. # H = Encrypt X(=0) and T = Encrypt counter
  2052. movdqa %xmm4, %xmm1
  2053. movdqa (%r15), %xmm5
  2054. pxor %xmm5, %xmm1
  2055. movdqa 16(%r15), %xmm7
  2056. aesenc %xmm7, %xmm5
  2057. aesenc %xmm7, %xmm1
  2058. movdqa 32(%r15), %xmm7
  2059. aesenc %xmm7, %xmm5
  2060. aesenc %xmm7, %xmm1
  2061. movdqa 48(%r15), %xmm7
  2062. aesenc %xmm7, %xmm5
  2063. aesenc %xmm7, %xmm1
  2064. movdqa 64(%r15), %xmm7
  2065. aesenc %xmm7, %xmm5
  2066. aesenc %xmm7, %xmm1
  2067. movdqa 80(%r15), %xmm7
  2068. aesenc %xmm7, %xmm5
  2069. aesenc %xmm7, %xmm1
  2070. movdqa 96(%r15), %xmm7
  2071. aesenc %xmm7, %xmm5
  2072. aesenc %xmm7, %xmm1
  2073. movdqa 112(%r15), %xmm7
  2074. aesenc %xmm7, %xmm5
  2075. aesenc %xmm7, %xmm1
  2076. movdqa 128(%r15), %xmm7
  2077. aesenc %xmm7, %xmm5
  2078. aesenc %xmm7, %xmm1
  2079. movdqa 144(%r15), %xmm7
  2080. aesenc %xmm7, %xmm5
  2081. aesenc %xmm7, %xmm1
  2082. cmpl $11, %r10d
  2083. movdqa 160(%r15), %xmm7
  2084. jl L_AES_GCM_decrypt_calc_iv_12_last
  2085. aesenc %xmm7, %xmm5
  2086. aesenc %xmm7, %xmm1
  2087. movdqa 176(%r15), %xmm7
  2088. aesenc %xmm7, %xmm5
  2089. aesenc %xmm7, %xmm1
  2090. cmpl $13, %r10d
  2091. movdqa 192(%r15), %xmm7
  2092. jl L_AES_GCM_decrypt_calc_iv_12_last
  2093. aesenc %xmm7, %xmm5
  2094. aesenc %xmm7, %xmm1
  2095. movdqa 208(%r15), %xmm7
  2096. aesenc %xmm7, %xmm5
  2097. aesenc %xmm7, %xmm1
  2098. movdqa 224(%r15), %xmm7
  2099. L_AES_GCM_decrypt_calc_iv_12_last:
  2100. aesenclast %xmm7, %xmm5
  2101. aesenclast %xmm7, %xmm1
  2102. pshufb L_aes_gcm_bswap_mask(%rip), %xmm5
  2103. movdqa %xmm1, 144(%rsp)
  2104. jmp L_AES_GCM_decrypt_iv_done
  2105. L_AES_GCM_decrypt_iv_not_12:
  2106. # Calculate values when IV is not 12 bytes
  2107. # H = Encrypt X(=0)
  2108. movdqa (%r15), %xmm5
  2109. aesenc 16(%r15), %xmm5
  2110. aesenc 32(%r15), %xmm5
  2111. aesenc 48(%r15), %xmm5
  2112. aesenc 64(%r15), %xmm5
  2113. aesenc 80(%r15), %xmm5
  2114. aesenc 96(%r15), %xmm5
  2115. aesenc 112(%r15), %xmm5
  2116. aesenc 128(%r15), %xmm5
  2117. aesenc 144(%r15), %xmm5
  2118. cmpl $11, %r10d
  2119. movdqa 160(%r15), %xmm9
  2120. jl L_AES_GCM_decrypt_calc_iv_1_aesenc_avx_last
  2121. aesenc %xmm9, %xmm5
  2122. aesenc 176(%r15), %xmm5
  2123. cmpl $13, %r10d
  2124. movdqa 192(%r15), %xmm9
  2125. jl L_AES_GCM_decrypt_calc_iv_1_aesenc_avx_last
  2126. aesenc %xmm9, %xmm5
  2127. aesenc 208(%r15), %xmm5
  2128. movdqa 224(%r15), %xmm9
  2129. L_AES_GCM_decrypt_calc_iv_1_aesenc_avx_last:
  2130. aesenclast %xmm9, %xmm5
  2131. pshufb L_aes_gcm_bswap_mask(%rip), %xmm5
  2132. # Calc counter
  2133. # Initialization vector
  2134. cmpl $0x00, %edx
  2135. movq $0x00, %rcx
  2136. je L_AES_GCM_decrypt_calc_iv_done
  2137. cmpl $16, %edx
  2138. jl L_AES_GCM_decrypt_calc_iv_lt16
  2139. andl $0xfffffff0, %edx
  2140. L_AES_GCM_decrypt_calc_iv_16_loop:
  2141. movdqu (%rax,%rcx,1), %xmm8
  2142. pshufb L_aes_gcm_bswap_mask(%rip), %xmm8
  2143. pxor %xmm8, %xmm4
  2144. pshufd $0x4e, %xmm4, %xmm1
  2145. pshufd $0x4e, %xmm5, %xmm2
  2146. movdqa %xmm5, %xmm3
  2147. movdqa %xmm5, %xmm0
  2148. pclmulqdq $0x11, %xmm4, %xmm3
  2149. pclmulqdq $0x00, %xmm4, %xmm0
  2150. pxor %xmm4, %xmm1
  2151. pxor %xmm5, %xmm2
  2152. pclmulqdq $0x00, %xmm2, %xmm1
  2153. pxor %xmm0, %xmm1
  2154. pxor %xmm3, %xmm1
  2155. movdqa %xmm1, %xmm2
  2156. movdqa %xmm0, %xmm7
  2157. movdqa %xmm3, %xmm4
  2158. pslldq $8, %xmm2
  2159. psrldq $8, %xmm1
  2160. pxor %xmm2, %xmm7
  2161. pxor %xmm1, %xmm4
  2162. movdqa %xmm7, %xmm0
  2163. movdqa %xmm4, %xmm1
  2164. psrld $31, %xmm0
  2165. psrld $31, %xmm1
  2166. pslld $0x01, %xmm7
  2167. pslld $0x01, %xmm4
  2168. movdqa %xmm0, %xmm2
  2169. pslldq $4, %xmm0
  2170. psrldq $12, %xmm2
  2171. pslldq $4, %xmm1
  2172. por %xmm2, %xmm4
  2173. por %xmm0, %xmm7
  2174. por %xmm1, %xmm4
  2175. movdqa %xmm7, %xmm0
  2176. movdqa %xmm7, %xmm1
  2177. movdqa %xmm7, %xmm2
  2178. pslld $31, %xmm0
  2179. pslld $30, %xmm1
  2180. pslld $25, %xmm2
  2181. pxor %xmm1, %xmm0
  2182. pxor %xmm2, %xmm0
  2183. movdqa %xmm0, %xmm1
  2184. psrldq $4, %xmm1
  2185. pslldq $12, %xmm0
  2186. pxor %xmm0, %xmm7
  2187. movdqa %xmm7, %xmm2
  2188. movdqa %xmm7, %xmm3
  2189. movdqa %xmm7, %xmm0
  2190. psrld $0x01, %xmm2
  2191. psrld $2, %xmm3
  2192. psrld $7, %xmm0
  2193. pxor %xmm3, %xmm2
  2194. pxor %xmm0, %xmm2
  2195. pxor %xmm1, %xmm2
  2196. pxor %xmm7, %xmm2
  2197. pxor %xmm2, %xmm4
  2198. addl $16, %ecx
  2199. cmpl %edx, %ecx
  2200. jl L_AES_GCM_decrypt_calc_iv_16_loop
  2201. movl %ebx, %edx
  2202. cmpl %edx, %ecx
  2203. je L_AES_GCM_decrypt_calc_iv_done
  2204. L_AES_GCM_decrypt_calc_iv_lt16:
  2205. subq $16, %rsp
  2206. pxor %xmm8, %xmm8
  2207. xorl %ebx, %ebx
  2208. movdqa %xmm8, (%rsp)
  2209. L_AES_GCM_decrypt_calc_iv_loop:
  2210. movzbl (%rax,%rcx,1), %r13d
  2211. movb %r13b, (%rsp,%rbx,1)
  2212. incl %ecx
  2213. incl %ebx
  2214. cmpl %edx, %ecx
  2215. jl L_AES_GCM_decrypt_calc_iv_loop
  2216. movdqa (%rsp), %xmm8
  2217. addq $16, %rsp
  2218. pshufb L_aes_gcm_bswap_mask(%rip), %xmm8
  2219. pxor %xmm8, %xmm4
  2220. pshufd $0x4e, %xmm4, %xmm1
  2221. pshufd $0x4e, %xmm5, %xmm2
  2222. movdqa %xmm5, %xmm3
  2223. movdqa %xmm5, %xmm0
  2224. pclmulqdq $0x11, %xmm4, %xmm3
  2225. pclmulqdq $0x00, %xmm4, %xmm0
  2226. pxor %xmm4, %xmm1
  2227. pxor %xmm5, %xmm2
  2228. pclmulqdq $0x00, %xmm2, %xmm1
  2229. pxor %xmm0, %xmm1
  2230. pxor %xmm3, %xmm1
  2231. movdqa %xmm1, %xmm2
  2232. movdqa %xmm0, %xmm7
  2233. movdqa %xmm3, %xmm4
  2234. pslldq $8, %xmm2
  2235. psrldq $8, %xmm1
  2236. pxor %xmm2, %xmm7
  2237. pxor %xmm1, %xmm4
  2238. movdqa %xmm7, %xmm0
  2239. movdqa %xmm4, %xmm1
  2240. psrld $31, %xmm0
  2241. psrld $31, %xmm1
  2242. pslld $0x01, %xmm7
  2243. pslld $0x01, %xmm4
  2244. movdqa %xmm0, %xmm2
  2245. pslldq $4, %xmm0
  2246. psrldq $12, %xmm2
  2247. pslldq $4, %xmm1
  2248. por %xmm2, %xmm4
  2249. por %xmm0, %xmm7
  2250. por %xmm1, %xmm4
  2251. movdqa %xmm7, %xmm0
  2252. movdqa %xmm7, %xmm1
  2253. movdqa %xmm7, %xmm2
  2254. pslld $31, %xmm0
  2255. pslld $30, %xmm1
  2256. pslld $25, %xmm2
  2257. pxor %xmm1, %xmm0
  2258. pxor %xmm2, %xmm0
  2259. movdqa %xmm0, %xmm1
  2260. psrldq $4, %xmm1
  2261. pslldq $12, %xmm0
  2262. pxor %xmm0, %xmm7
  2263. movdqa %xmm7, %xmm2
  2264. movdqa %xmm7, %xmm3
  2265. movdqa %xmm7, %xmm0
  2266. psrld $0x01, %xmm2
  2267. psrld $2, %xmm3
  2268. psrld $7, %xmm0
  2269. pxor %xmm3, %xmm2
  2270. pxor %xmm0, %xmm2
  2271. pxor %xmm1, %xmm2
  2272. pxor %xmm7, %xmm2
  2273. pxor %xmm2, %xmm4
  2274. L_AES_GCM_decrypt_calc_iv_done:
  2275. # T = Encrypt counter
  2276. pxor %xmm0, %xmm0
  2277. shll $3, %edx
  2278. pinsrq $0x00, %rdx, %xmm0
  2279. pxor %xmm0, %xmm4
  2280. pshufd $0x4e, %xmm4, %xmm1
  2281. pshufd $0x4e, %xmm5, %xmm2
  2282. movdqa %xmm5, %xmm3
  2283. movdqa %xmm5, %xmm0
  2284. pclmulqdq $0x11, %xmm4, %xmm3
  2285. pclmulqdq $0x00, %xmm4, %xmm0
  2286. pxor %xmm4, %xmm1
  2287. pxor %xmm5, %xmm2
  2288. pclmulqdq $0x00, %xmm2, %xmm1
  2289. pxor %xmm0, %xmm1
  2290. pxor %xmm3, %xmm1
  2291. movdqa %xmm1, %xmm2
  2292. movdqa %xmm0, %xmm7
  2293. movdqa %xmm3, %xmm4
  2294. pslldq $8, %xmm2
  2295. psrldq $8, %xmm1
  2296. pxor %xmm2, %xmm7
  2297. pxor %xmm1, %xmm4
  2298. movdqa %xmm7, %xmm0
  2299. movdqa %xmm4, %xmm1
  2300. psrld $31, %xmm0
  2301. psrld $31, %xmm1
  2302. pslld $0x01, %xmm7
  2303. pslld $0x01, %xmm4
  2304. movdqa %xmm0, %xmm2
  2305. pslldq $4, %xmm0
  2306. psrldq $12, %xmm2
  2307. pslldq $4, %xmm1
  2308. por %xmm2, %xmm4
  2309. por %xmm0, %xmm7
  2310. por %xmm1, %xmm4
  2311. movdqa %xmm7, %xmm0
  2312. movdqa %xmm7, %xmm1
  2313. movdqa %xmm7, %xmm2
  2314. pslld $31, %xmm0
  2315. pslld $30, %xmm1
  2316. pslld $25, %xmm2
  2317. pxor %xmm1, %xmm0
  2318. pxor %xmm2, %xmm0
  2319. movdqa %xmm0, %xmm1
  2320. psrldq $4, %xmm1
  2321. pslldq $12, %xmm0
  2322. pxor %xmm0, %xmm7
  2323. movdqa %xmm7, %xmm2
  2324. movdqa %xmm7, %xmm3
  2325. movdqa %xmm7, %xmm0
  2326. psrld $0x01, %xmm2
  2327. psrld $2, %xmm3
  2328. psrld $7, %xmm0
  2329. pxor %xmm3, %xmm2
  2330. pxor %xmm0, %xmm2
  2331. pxor %xmm1, %xmm2
  2332. pxor %xmm7, %xmm2
  2333. pxor %xmm2, %xmm4
  2334. pshufb L_aes_gcm_bswap_mask(%rip), %xmm4
  2335. # Encrypt counter
  2336. movdqa (%r15), %xmm8
  2337. pxor %xmm4, %xmm8
  2338. aesenc 16(%r15), %xmm8
  2339. aesenc 32(%r15), %xmm8
  2340. aesenc 48(%r15), %xmm8
  2341. aesenc 64(%r15), %xmm8
  2342. aesenc 80(%r15), %xmm8
  2343. aesenc 96(%r15), %xmm8
  2344. aesenc 112(%r15), %xmm8
  2345. aesenc 128(%r15), %xmm8
  2346. aesenc 144(%r15), %xmm8
  2347. cmpl $11, %r10d
  2348. movdqa 160(%r15), %xmm9
  2349. jl L_AES_GCM_decrypt_calc_iv_2_aesenc_avx_last
  2350. aesenc %xmm9, %xmm8
  2351. aesenc 176(%r15), %xmm8
  2352. cmpl $13, %r10d
  2353. movdqa 192(%r15), %xmm9
  2354. jl L_AES_GCM_decrypt_calc_iv_2_aesenc_avx_last
  2355. aesenc %xmm9, %xmm8
  2356. aesenc 208(%r15), %xmm8
  2357. movdqa 224(%r15), %xmm9
  2358. L_AES_GCM_decrypt_calc_iv_2_aesenc_avx_last:
  2359. aesenclast %xmm9, %xmm8
  2360. movdqa %xmm8, 144(%rsp)
  2361. L_AES_GCM_decrypt_iv_done:
  2362. # Additional authentication data
  2363. movl %r11d, %edx
  2364. cmpl $0x00, %edx
  2365. je L_AES_GCM_decrypt_calc_aad_done
  2366. xorl %ecx, %ecx
  2367. cmpl $16, %edx
  2368. jl L_AES_GCM_decrypt_calc_aad_lt16
  2369. andl $0xfffffff0, %edx
  2370. L_AES_GCM_decrypt_calc_aad_16_loop:
  2371. movdqu (%r12,%rcx,1), %xmm8
  2372. pshufb L_aes_gcm_bswap_mask(%rip), %xmm8
  2373. pxor %xmm8, %xmm6
  2374. pshufd $0x4e, %xmm6, %xmm1
  2375. pshufd $0x4e, %xmm5, %xmm2
  2376. movdqa %xmm5, %xmm3
  2377. movdqa %xmm5, %xmm0
  2378. pclmulqdq $0x11, %xmm6, %xmm3
  2379. pclmulqdq $0x00, %xmm6, %xmm0
  2380. pxor %xmm6, %xmm1
  2381. pxor %xmm5, %xmm2
  2382. pclmulqdq $0x00, %xmm2, %xmm1
  2383. pxor %xmm0, %xmm1
  2384. pxor %xmm3, %xmm1
  2385. movdqa %xmm1, %xmm2
  2386. movdqa %xmm0, %xmm7
  2387. movdqa %xmm3, %xmm6
  2388. pslldq $8, %xmm2
  2389. psrldq $8, %xmm1
  2390. pxor %xmm2, %xmm7
  2391. pxor %xmm1, %xmm6
  2392. movdqa %xmm7, %xmm0
  2393. movdqa %xmm6, %xmm1
  2394. psrld $31, %xmm0
  2395. psrld $31, %xmm1
  2396. pslld $0x01, %xmm7
  2397. pslld $0x01, %xmm6
  2398. movdqa %xmm0, %xmm2
  2399. pslldq $4, %xmm0
  2400. psrldq $12, %xmm2
  2401. pslldq $4, %xmm1
  2402. por %xmm2, %xmm6
  2403. por %xmm0, %xmm7
  2404. por %xmm1, %xmm6
  2405. movdqa %xmm7, %xmm0
  2406. movdqa %xmm7, %xmm1
  2407. movdqa %xmm7, %xmm2
  2408. pslld $31, %xmm0
  2409. pslld $30, %xmm1
  2410. pslld $25, %xmm2
  2411. pxor %xmm1, %xmm0
  2412. pxor %xmm2, %xmm0
  2413. movdqa %xmm0, %xmm1
  2414. psrldq $4, %xmm1
  2415. pslldq $12, %xmm0
  2416. pxor %xmm0, %xmm7
  2417. movdqa %xmm7, %xmm2
  2418. movdqa %xmm7, %xmm3
  2419. movdqa %xmm7, %xmm0
  2420. psrld $0x01, %xmm2
  2421. psrld $2, %xmm3
  2422. psrld $7, %xmm0
  2423. pxor %xmm3, %xmm2
  2424. pxor %xmm0, %xmm2
  2425. pxor %xmm1, %xmm2
  2426. pxor %xmm7, %xmm2
  2427. pxor %xmm2, %xmm6
  2428. addl $16, %ecx
  2429. cmpl %edx, %ecx
  2430. jl L_AES_GCM_decrypt_calc_aad_16_loop
  2431. movl %r11d, %edx
  2432. cmpl %edx, %ecx
  2433. je L_AES_GCM_decrypt_calc_aad_done
  2434. L_AES_GCM_decrypt_calc_aad_lt16:
  2435. subq $16, %rsp
  2436. pxor %xmm8, %xmm8
  2437. xorl %ebx, %ebx
  2438. movdqa %xmm8, (%rsp)
  2439. L_AES_GCM_decrypt_calc_aad_loop:
  2440. movzbl (%r12,%rcx,1), %r13d
  2441. movb %r13b, (%rsp,%rbx,1)
  2442. incl %ecx
  2443. incl %ebx
  2444. cmpl %edx, %ecx
  2445. jl L_AES_GCM_decrypt_calc_aad_loop
  2446. movdqa (%rsp), %xmm8
  2447. addq $16, %rsp
  2448. pshufb L_aes_gcm_bswap_mask(%rip), %xmm8
  2449. pxor %xmm8, %xmm6
  2450. pshufd $0x4e, %xmm6, %xmm1
  2451. pshufd $0x4e, %xmm5, %xmm2
  2452. movdqa %xmm5, %xmm3
  2453. movdqa %xmm5, %xmm0
  2454. pclmulqdq $0x11, %xmm6, %xmm3
  2455. pclmulqdq $0x00, %xmm6, %xmm0
  2456. pxor %xmm6, %xmm1
  2457. pxor %xmm5, %xmm2
  2458. pclmulqdq $0x00, %xmm2, %xmm1
  2459. pxor %xmm0, %xmm1
  2460. pxor %xmm3, %xmm1
  2461. movdqa %xmm1, %xmm2
  2462. movdqa %xmm0, %xmm7
  2463. movdqa %xmm3, %xmm6
  2464. pslldq $8, %xmm2
  2465. psrldq $8, %xmm1
  2466. pxor %xmm2, %xmm7
  2467. pxor %xmm1, %xmm6
  2468. movdqa %xmm7, %xmm0
  2469. movdqa %xmm6, %xmm1
  2470. psrld $31, %xmm0
  2471. psrld $31, %xmm1
  2472. pslld $0x01, %xmm7
  2473. pslld $0x01, %xmm6
  2474. movdqa %xmm0, %xmm2
  2475. pslldq $4, %xmm0
  2476. psrldq $12, %xmm2
  2477. pslldq $4, %xmm1
  2478. por %xmm2, %xmm6
  2479. por %xmm0, %xmm7
  2480. por %xmm1, %xmm6
  2481. movdqa %xmm7, %xmm0
  2482. movdqa %xmm7, %xmm1
  2483. movdqa %xmm7, %xmm2
  2484. pslld $31, %xmm0
  2485. pslld $30, %xmm1
  2486. pslld $25, %xmm2
  2487. pxor %xmm1, %xmm0
  2488. pxor %xmm2, %xmm0
  2489. movdqa %xmm0, %xmm1
  2490. psrldq $4, %xmm1
  2491. pslldq $12, %xmm0
  2492. pxor %xmm0, %xmm7
  2493. movdqa %xmm7, %xmm2
  2494. movdqa %xmm7, %xmm3
  2495. movdqa %xmm7, %xmm0
  2496. psrld $0x01, %xmm2
  2497. psrld $2, %xmm3
  2498. psrld $7, %xmm0
  2499. pxor %xmm3, %xmm2
  2500. pxor %xmm0, %xmm2
  2501. pxor %xmm1, %xmm2
  2502. pxor %xmm7, %xmm2
  2503. pxor %xmm2, %xmm6
  2504. L_AES_GCM_decrypt_calc_aad_done:
  2505. # Calculate counter and H
  2506. pshufb L_aes_gcm_bswap_epi64(%rip), %xmm4
  2507. movdqa %xmm5, %xmm9
  2508. paddd L_aes_gcm_one(%rip), %xmm4
  2509. movdqa %xmm5, %xmm8
  2510. movdqa %xmm4, 128(%rsp)
  2511. psrlq $63, %xmm9
  2512. psllq $0x01, %xmm8
  2513. pslldq $8, %xmm9
  2514. por %xmm9, %xmm8
  2515. pshufd $0xff, %xmm5, %xmm5
  2516. psrad $31, %xmm5
  2517. pand L_aes_gcm_mod2_128(%rip), %xmm5
  2518. pxor %xmm8, %xmm5
  2519. xorl %ebx, %ebx
  2520. cmpl $0x80, %r9d
  2521. movl %r9d, %r13d
  2522. jl L_AES_GCM_decrypt_done_128
  2523. andl $0xffffff80, %r13d
  2524. movdqa %xmm6, %xmm2
  2525. # H ^ 1
  2526. movdqa %xmm5, (%rsp)
  2527. # H ^ 2
  2528. pshufd $0x4e, %xmm5, %xmm9
  2529. pshufd $0x4e, %xmm5, %xmm10
  2530. movdqa %xmm5, %xmm11
  2531. movdqa %xmm5, %xmm8
  2532. pclmulqdq $0x11, %xmm5, %xmm11
  2533. pclmulqdq $0x00, %xmm5, %xmm8
  2534. pxor %xmm5, %xmm9
  2535. pxor %xmm5, %xmm10
  2536. pclmulqdq $0x00, %xmm10, %xmm9
  2537. pxor %xmm8, %xmm9
  2538. pxor %xmm11, %xmm9
  2539. movdqa %xmm9, %xmm10
  2540. movdqa %xmm11, %xmm0
  2541. pslldq $8, %xmm10
  2542. psrldq $8, %xmm9
  2543. pxor %xmm10, %xmm8
  2544. pxor %xmm9, %xmm0
  2545. movdqa %xmm8, %xmm12
  2546. movdqa %xmm8, %xmm13
  2547. movdqa %xmm8, %xmm14
  2548. pslld $31, %xmm12
  2549. pslld $30, %xmm13
  2550. pslld $25, %xmm14
  2551. pxor %xmm13, %xmm12
  2552. pxor %xmm14, %xmm12
  2553. movdqa %xmm12, %xmm13
  2554. psrldq $4, %xmm13
  2555. pslldq $12, %xmm12
  2556. pxor %xmm12, %xmm8
  2557. movdqa %xmm8, %xmm14
  2558. movdqa %xmm8, %xmm10
  2559. movdqa %xmm8, %xmm9
  2560. psrld $0x01, %xmm14
  2561. psrld $2, %xmm10
  2562. psrld $7, %xmm9
  2563. pxor %xmm10, %xmm14
  2564. pxor %xmm9, %xmm14
  2565. pxor %xmm13, %xmm14
  2566. pxor %xmm8, %xmm14
  2567. pxor %xmm14, %xmm0
  2568. movdqa %xmm0, 16(%rsp)
  2569. # H ^ 3
  2570. pshufd $0x4e, %xmm5, %xmm9
  2571. pshufd $0x4e, %xmm0, %xmm10
  2572. movdqa %xmm0, %xmm11
  2573. movdqa %xmm0, %xmm8
  2574. pclmulqdq $0x11, %xmm5, %xmm11
  2575. pclmulqdq $0x00, %xmm5, %xmm8
  2576. pxor %xmm5, %xmm9
  2577. pxor %xmm0, %xmm10
  2578. pclmulqdq $0x00, %xmm10, %xmm9
  2579. pxor %xmm8, %xmm9
  2580. pxor %xmm11, %xmm9
  2581. movdqa %xmm9, %xmm10
  2582. movdqa %xmm11, %xmm1
  2583. pslldq $8, %xmm10
  2584. psrldq $8, %xmm9
  2585. pxor %xmm10, %xmm8
  2586. pxor %xmm9, %xmm1
  2587. movdqa %xmm8, %xmm12
  2588. movdqa %xmm8, %xmm13
  2589. movdqa %xmm8, %xmm14
  2590. pslld $31, %xmm12
  2591. pslld $30, %xmm13
  2592. pslld $25, %xmm14
  2593. pxor %xmm13, %xmm12
  2594. pxor %xmm14, %xmm12
  2595. movdqa %xmm12, %xmm13
  2596. psrldq $4, %xmm13
  2597. pslldq $12, %xmm12
  2598. pxor %xmm12, %xmm8
  2599. movdqa %xmm8, %xmm14
  2600. movdqa %xmm8, %xmm10
  2601. movdqa %xmm8, %xmm9
  2602. psrld $0x01, %xmm14
  2603. psrld $2, %xmm10
  2604. psrld $7, %xmm9
  2605. pxor %xmm10, %xmm14
  2606. pxor %xmm9, %xmm14
  2607. pxor %xmm13, %xmm14
  2608. pxor %xmm8, %xmm14
  2609. pxor %xmm14, %xmm1
  2610. movdqa %xmm1, 32(%rsp)
  2611. # H ^ 4
  2612. pshufd $0x4e, %xmm0, %xmm9
  2613. pshufd $0x4e, %xmm0, %xmm10
  2614. movdqa %xmm0, %xmm11
  2615. movdqa %xmm0, %xmm8
  2616. pclmulqdq $0x11, %xmm0, %xmm11
  2617. pclmulqdq $0x00, %xmm0, %xmm8
  2618. pxor %xmm0, %xmm9
  2619. pxor %xmm0, %xmm10
  2620. pclmulqdq $0x00, %xmm10, %xmm9
  2621. pxor %xmm8, %xmm9
  2622. pxor %xmm11, %xmm9
  2623. movdqa %xmm9, %xmm10
  2624. movdqa %xmm11, %xmm3
  2625. pslldq $8, %xmm10
  2626. psrldq $8, %xmm9
  2627. pxor %xmm10, %xmm8
  2628. pxor %xmm9, %xmm3
  2629. movdqa %xmm8, %xmm12
  2630. movdqa %xmm8, %xmm13
  2631. movdqa %xmm8, %xmm14
  2632. pslld $31, %xmm12
  2633. pslld $30, %xmm13
  2634. pslld $25, %xmm14
  2635. pxor %xmm13, %xmm12
  2636. pxor %xmm14, %xmm12
  2637. movdqa %xmm12, %xmm13
  2638. psrldq $4, %xmm13
  2639. pslldq $12, %xmm12
  2640. pxor %xmm12, %xmm8
  2641. movdqa %xmm8, %xmm14
  2642. movdqa %xmm8, %xmm10
  2643. movdqa %xmm8, %xmm9
  2644. psrld $0x01, %xmm14
  2645. psrld $2, %xmm10
  2646. psrld $7, %xmm9
  2647. pxor %xmm10, %xmm14
  2648. pxor %xmm9, %xmm14
  2649. pxor %xmm13, %xmm14
  2650. pxor %xmm8, %xmm14
  2651. pxor %xmm14, %xmm3
  2652. movdqa %xmm3, 48(%rsp)
  2653. # H ^ 5
  2654. pshufd $0x4e, %xmm0, %xmm9
  2655. pshufd $0x4e, %xmm1, %xmm10
  2656. movdqa %xmm1, %xmm11
  2657. movdqa %xmm1, %xmm8
  2658. pclmulqdq $0x11, %xmm0, %xmm11
  2659. pclmulqdq $0x00, %xmm0, %xmm8
  2660. pxor %xmm0, %xmm9
  2661. pxor %xmm1, %xmm10
  2662. pclmulqdq $0x00, %xmm10, %xmm9
  2663. pxor %xmm8, %xmm9
  2664. pxor %xmm11, %xmm9
  2665. movdqa %xmm9, %xmm10
  2666. movdqa %xmm11, %xmm7
  2667. pslldq $8, %xmm10
  2668. psrldq $8, %xmm9
  2669. pxor %xmm10, %xmm8
  2670. pxor %xmm9, %xmm7
  2671. movdqa %xmm8, %xmm12
  2672. movdqa %xmm8, %xmm13
  2673. movdqa %xmm8, %xmm14
  2674. pslld $31, %xmm12
  2675. pslld $30, %xmm13
  2676. pslld $25, %xmm14
  2677. pxor %xmm13, %xmm12
  2678. pxor %xmm14, %xmm12
  2679. movdqa %xmm12, %xmm13
  2680. psrldq $4, %xmm13
  2681. pslldq $12, %xmm12
  2682. pxor %xmm12, %xmm8
  2683. movdqa %xmm8, %xmm14
  2684. movdqa %xmm8, %xmm10
  2685. movdqa %xmm8, %xmm9
  2686. psrld $0x01, %xmm14
  2687. psrld $2, %xmm10
  2688. psrld $7, %xmm9
  2689. pxor %xmm10, %xmm14
  2690. pxor %xmm9, %xmm14
  2691. pxor %xmm13, %xmm14
  2692. pxor %xmm8, %xmm14
  2693. pxor %xmm14, %xmm7
  2694. movdqa %xmm7, 64(%rsp)
  2695. # H ^ 6
  2696. pshufd $0x4e, %xmm1, %xmm9
  2697. pshufd $0x4e, %xmm1, %xmm10
  2698. movdqa %xmm1, %xmm11
  2699. movdqa %xmm1, %xmm8
  2700. pclmulqdq $0x11, %xmm1, %xmm11
  2701. pclmulqdq $0x00, %xmm1, %xmm8
  2702. pxor %xmm1, %xmm9
  2703. pxor %xmm1, %xmm10
  2704. pclmulqdq $0x00, %xmm10, %xmm9
  2705. pxor %xmm8, %xmm9
  2706. pxor %xmm11, %xmm9
  2707. movdqa %xmm9, %xmm10
  2708. movdqa %xmm11, %xmm7
  2709. pslldq $8, %xmm10
  2710. psrldq $8, %xmm9
  2711. pxor %xmm10, %xmm8
  2712. pxor %xmm9, %xmm7
  2713. movdqa %xmm8, %xmm12
  2714. movdqa %xmm8, %xmm13
  2715. movdqa %xmm8, %xmm14
  2716. pslld $31, %xmm12
  2717. pslld $30, %xmm13
  2718. pslld $25, %xmm14
  2719. pxor %xmm13, %xmm12
  2720. pxor %xmm14, %xmm12
  2721. movdqa %xmm12, %xmm13
  2722. psrldq $4, %xmm13
  2723. pslldq $12, %xmm12
  2724. pxor %xmm12, %xmm8
  2725. movdqa %xmm8, %xmm14
  2726. movdqa %xmm8, %xmm10
  2727. movdqa %xmm8, %xmm9
  2728. psrld $0x01, %xmm14
  2729. psrld $2, %xmm10
  2730. psrld $7, %xmm9
  2731. pxor %xmm10, %xmm14
  2732. pxor %xmm9, %xmm14
  2733. pxor %xmm13, %xmm14
  2734. pxor %xmm8, %xmm14
  2735. pxor %xmm14, %xmm7
  2736. movdqa %xmm7, 80(%rsp)
  2737. # H ^ 7
  2738. pshufd $0x4e, %xmm1, %xmm9
  2739. pshufd $0x4e, %xmm3, %xmm10
  2740. movdqa %xmm3, %xmm11
  2741. movdqa %xmm3, %xmm8
  2742. pclmulqdq $0x11, %xmm1, %xmm11
  2743. pclmulqdq $0x00, %xmm1, %xmm8
  2744. pxor %xmm1, %xmm9
  2745. pxor %xmm3, %xmm10
  2746. pclmulqdq $0x00, %xmm10, %xmm9
  2747. pxor %xmm8, %xmm9
  2748. pxor %xmm11, %xmm9
  2749. movdqa %xmm9, %xmm10
  2750. movdqa %xmm11, %xmm7
  2751. pslldq $8, %xmm10
  2752. psrldq $8, %xmm9
  2753. pxor %xmm10, %xmm8
  2754. pxor %xmm9, %xmm7
  2755. movdqa %xmm8, %xmm12
  2756. movdqa %xmm8, %xmm13
  2757. movdqa %xmm8, %xmm14
  2758. pslld $31, %xmm12
  2759. pslld $30, %xmm13
  2760. pslld $25, %xmm14
  2761. pxor %xmm13, %xmm12
  2762. pxor %xmm14, %xmm12
  2763. movdqa %xmm12, %xmm13
  2764. psrldq $4, %xmm13
  2765. pslldq $12, %xmm12
  2766. pxor %xmm12, %xmm8
  2767. movdqa %xmm8, %xmm14
  2768. movdqa %xmm8, %xmm10
  2769. movdqa %xmm8, %xmm9
  2770. psrld $0x01, %xmm14
  2771. psrld $2, %xmm10
  2772. psrld $7, %xmm9
  2773. pxor %xmm10, %xmm14
  2774. pxor %xmm9, %xmm14
  2775. pxor %xmm13, %xmm14
  2776. pxor %xmm8, %xmm14
  2777. pxor %xmm14, %xmm7
  2778. movdqa %xmm7, 96(%rsp)
  2779. # H ^ 8
  2780. pshufd $0x4e, %xmm3, %xmm9
  2781. pshufd $0x4e, %xmm3, %xmm10
  2782. movdqa %xmm3, %xmm11
  2783. movdqa %xmm3, %xmm8
  2784. pclmulqdq $0x11, %xmm3, %xmm11
  2785. pclmulqdq $0x00, %xmm3, %xmm8
  2786. pxor %xmm3, %xmm9
  2787. pxor %xmm3, %xmm10
  2788. pclmulqdq $0x00, %xmm10, %xmm9
  2789. pxor %xmm8, %xmm9
  2790. pxor %xmm11, %xmm9
  2791. movdqa %xmm9, %xmm10
  2792. movdqa %xmm11, %xmm7
  2793. pslldq $8, %xmm10
  2794. psrldq $8, %xmm9
  2795. pxor %xmm10, %xmm8
  2796. pxor %xmm9, %xmm7
  2797. movdqa %xmm8, %xmm12
  2798. movdqa %xmm8, %xmm13
  2799. movdqa %xmm8, %xmm14
  2800. pslld $31, %xmm12
  2801. pslld $30, %xmm13
  2802. pslld $25, %xmm14
  2803. pxor %xmm13, %xmm12
  2804. pxor %xmm14, %xmm12
  2805. movdqa %xmm12, %xmm13
  2806. psrldq $4, %xmm13
  2807. pslldq $12, %xmm12
  2808. pxor %xmm12, %xmm8
  2809. movdqa %xmm8, %xmm14
  2810. movdqa %xmm8, %xmm10
  2811. movdqa %xmm8, %xmm9
  2812. psrld $0x01, %xmm14
  2813. psrld $2, %xmm10
  2814. psrld $7, %xmm9
  2815. pxor %xmm10, %xmm14
  2816. pxor %xmm9, %xmm14
  2817. pxor %xmm13, %xmm14
  2818. pxor %xmm8, %xmm14
  2819. pxor %xmm14, %xmm7
  2820. movdqa %xmm7, 112(%rsp)
  2821. L_AES_GCM_decrypt_ghash_128:
  2822. leaq (%rdi,%rbx,1), %rcx
  2823. leaq (%rsi,%rbx,1), %rdx
  2824. movdqa 128(%rsp), %xmm8
  2825. movdqa L_aes_gcm_bswap_epi64(%rip), %xmm1
  2826. movdqa %xmm8, %xmm0
  2827. pshufb %xmm1, %xmm8
  2828. movdqa %xmm0, %xmm9
  2829. paddd L_aes_gcm_one(%rip), %xmm9
  2830. pshufb %xmm1, %xmm9
  2831. movdqa %xmm0, %xmm10
  2832. paddd L_aes_gcm_two(%rip), %xmm10
  2833. pshufb %xmm1, %xmm10
  2834. movdqa %xmm0, %xmm11
  2835. paddd L_aes_gcm_three(%rip), %xmm11
  2836. pshufb %xmm1, %xmm11
  2837. movdqa %xmm0, %xmm12
  2838. paddd L_aes_gcm_four(%rip), %xmm12
  2839. pshufb %xmm1, %xmm12
  2840. movdqa %xmm0, %xmm13
  2841. paddd L_aes_gcm_five(%rip), %xmm13
  2842. pshufb %xmm1, %xmm13
  2843. movdqa %xmm0, %xmm14
  2844. paddd L_aes_gcm_six(%rip), %xmm14
  2845. pshufb %xmm1, %xmm14
  2846. movdqa %xmm0, %xmm15
  2847. paddd L_aes_gcm_seven(%rip), %xmm15
  2848. pshufb %xmm1, %xmm15
  2849. paddd L_aes_gcm_eight(%rip), %xmm0
  2850. movdqa (%r15), %xmm7
  2851. movdqa %xmm0, 128(%rsp)
  2852. pxor %xmm7, %xmm8
  2853. pxor %xmm7, %xmm9
  2854. pxor %xmm7, %xmm10
  2855. pxor %xmm7, %xmm11
  2856. pxor %xmm7, %xmm12
  2857. pxor %xmm7, %xmm13
  2858. pxor %xmm7, %xmm14
  2859. pxor %xmm7, %xmm15
  2860. movdqa 112(%rsp), %xmm7
  2861. movdqu (%rcx), %xmm0
  2862. aesenc 16(%r15), %xmm8
  2863. pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
  2864. pxor %xmm2, %xmm0
  2865. pshufd $0x4e, %xmm7, %xmm1
  2866. pshufd $0x4e, %xmm0, %xmm5
  2867. pxor %xmm7, %xmm1
  2868. pxor %xmm0, %xmm5
  2869. movdqa %xmm0, %xmm3
  2870. pclmulqdq $0x11, %xmm7, %xmm3
  2871. aesenc 16(%r15), %xmm9
  2872. aesenc 16(%r15), %xmm10
  2873. movdqa %xmm0, %xmm2
  2874. pclmulqdq $0x00, %xmm7, %xmm2
  2875. aesenc 16(%r15), %xmm11
  2876. aesenc 16(%r15), %xmm12
  2877. pclmulqdq $0x00, %xmm5, %xmm1
  2878. aesenc 16(%r15), %xmm13
  2879. aesenc 16(%r15), %xmm14
  2880. aesenc 16(%r15), %xmm15
  2881. pxor %xmm2, %xmm1
  2882. pxor %xmm3, %xmm1
  2883. movdqa 96(%rsp), %xmm7
  2884. movdqu 16(%rcx), %xmm0
  2885. pshufd $0x4e, %xmm7, %xmm4
  2886. pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
  2887. aesenc 32(%r15), %xmm8
  2888. pxor %xmm7, %xmm4
  2889. pshufd $0x4e, %xmm0, %xmm5
  2890. pxor %xmm0, %xmm5
  2891. movdqa %xmm0, %xmm6
  2892. pclmulqdq $0x11, %xmm7, %xmm6
  2893. aesenc 32(%r15), %xmm9
  2894. aesenc 32(%r15), %xmm10
  2895. pclmulqdq $0x00, %xmm0, %xmm7
  2896. aesenc 32(%r15), %xmm11
  2897. aesenc 32(%r15), %xmm12
  2898. pclmulqdq $0x00, %xmm5, %xmm4
  2899. aesenc 32(%r15), %xmm13
  2900. aesenc 32(%r15), %xmm14
  2901. aesenc 32(%r15), %xmm15
  2902. pxor %xmm7, %xmm1
  2903. pxor %xmm7, %xmm2
  2904. pxor %xmm6, %xmm1
  2905. pxor %xmm6, %xmm3
  2906. pxor %xmm4, %xmm1
  2907. movdqa 80(%rsp), %xmm7
  2908. movdqu 32(%rcx), %xmm0
  2909. pshufd $0x4e, %xmm7, %xmm4
  2910. pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
  2911. aesenc 48(%r15), %xmm8
  2912. pxor %xmm7, %xmm4
  2913. pshufd $0x4e, %xmm0, %xmm5
  2914. pxor %xmm0, %xmm5
  2915. movdqa %xmm0, %xmm6
  2916. pclmulqdq $0x11, %xmm7, %xmm6
  2917. aesenc 48(%r15), %xmm9
  2918. aesenc 48(%r15), %xmm10
  2919. pclmulqdq $0x00, %xmm0, %xmm7
  2920. aesenc 48(%r15), %xmm11
  2921. aesenc 48(%r15), %xmm12
  2922. pclmulqdq $0x00, %xmm5, %xmm4
  2923. aesenc 48(%r15), %xmm13
  2924. aesenc 48(%r15), %xmm14
  2925. aesenc 48(%r15), %xmm15
  2926. pxor %xmm7, %xmm1
  2927. pxor %xmm7, %xmm2
  2928. pxor %xmm6, %xmm1
  2929. pxor %xmm6, %xmm3
  2930. pxor %xmm4, %xmm1
  2931. movdqa 64(%rsp), %xmm7
  2932. movdqu 48(%rcx), %xmm0
  2933. pshufd $0x4e, %xmm7, %xmm4
  2934. pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
  2935. aesenc 64(%r15), %xmm8
  2936. pxor %xmm7, %xmm4
  2937. pshufd $0x4e, %xmm0, %xmm5
  2938. pxor %xmm0, %xmm5
  2939. movdqa %xmm0, %xmm6
  2940. pclmulqdq $0x11, %xmm7, %xmm6
  2941. aesenc 64(%r15), %xmm9
  2942. aesenc 64(%r15), %xmm10
  2943. pclmulqdq $0x00, %xmm0, %xmm7
  2944. aesenc 64(%r15), %xmm11
  2945. aesenc 64(%r15), %xmm12
  2946. pclmulqdq $0x00, %xmm5, %xmm4
  2947. aesenc 64(%r15), %xmm13
  2948. aesenc 64(%r15), %xmm14
  2949. aesenc 64(%r15), %xmm15
  2950. pxor %xmm7, %xmm1
  2951. pxor %xmm7, %xmm2
  2952. pxor %xmm6, %xmm1
  2953. pxor %xmm6, %xmm3
  2954. pxor %xmm4, %xmm1
  2955. movdqa 48(%rsp), %xmm7
  2956. movdqu 64(%rcx), %xmm0
  2957. pshufd $0x4e, %xmm7, %xmm4
  2958. pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
  2959. aesenc 80(%r15), %xmm8
  2960. pxor %xmm7, %xmm4
  2961. pshufd $0x4e, %xmm0, %xmm5
  2962. pxor %xmm0, %xmm5
  2963. movdqa %xmm0, %xmm6
  2964. pclmulqdq $0x11, %xmm7, %xmm6
  2965. aesenc 80(%r15), %xmm9
  2966. aesenc 80(%r15), %xmm10
  2967. pclmulqdq $0x00, %xmm0, %xmm7
  2968. aesenc 80(%r15), %xmm11
  2969. aesenc 80(%r15), %xmm12
  2970. pclmulqdq $0x00, %xmm5, %xmm4
  2971. aesenc 80(%r15), %xmm13
  2972. aesenc 80(%r15), %xmm14
  2973. aesenc 80(%r15), %xmm15
  2974. pxor %xmm7, %xmm1
  2975. pxor %xmm7, %xmm2
  2976. pxor %xmm6, %xmm1
  2977. pxor %xmm6, %xmm3
  2978. pxor %xmm4, %xmm1
  2979. movdqa 32(%rsp), %xmm7
  2980. movdqu 80(%rcx), %xmm0
  2981. pshufd $0x4e, %xmm7, %xmm4
  2982. pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
  2983. aesenc 96(%r15), %xmm8
  2984. pxor %xmm7, %xmm4
  2985. pshufd $0x4e, %xmm0, %xmm5
  2986. pxor %xmm0, %xmm5
  2987. movdqa %xmm0, %xmm6
  2988. pclmulqdq $0x11, %xmm7, %xmm6
  2989. aesenc 96(%r15), %xmm9
  2990. aesenc 96(%r15), %xmm10
  2991. pclmulqdq $0x00, %xmm0, %xmm7
  2992. aesenc 96(%r15), %xmm11
  2993. aesenc 96(%r15), %xmm12
  2994. pclmulqdq $0x00, %xmm5, %xmm4
  2995. aesenc 96(%r15), %xmm13
  2996. aesenc 96(%r15), %xmm14
  2997. aesenc 96(%r15), %xmm15
  2998. pxor %xmm7, %xmm1
  2999. pxor %xmm7, %xmm2
  3000. pxor %xmm6, %xmm1
  3001. pxor %xmm6, %xmm3
  3002. pxor %xmm4, %xmm1
  3003. movdqa 16(%rsp), %xmm7
  3004. movdqu 96(%rcx), %xmm0
  3005. pshufd $0x4e, %xmm7, %xmm4
  3006. pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
  3007. aesenc 112(%r15), %xmm8
  3008. pxor %xmm7, %xmm4
  3009. pshufd $0x4e, %xmm0, %xmm5
  3010. pxor %xmm0, %xmm5
  3011. movdqa %xmm0, %xmm6
  3012. pclmulqdq $0x11, %xmm7, %xmm6
  3013. aesenc 112(%r15), %xmm9
  3014. aesenc 112(%r15), %xmm10
  3015. pclmulqdq $0x00, %xmm0, %xmm7
  3016. aesenc 112(%r15), %xmm11
  3017. aesenc 112(%r15), %xmm12
  3018. pclmulqdq $0x00, %xmm5, %xmm4
  3019. aesenc 112(%r15), %xmm13
  3020. aesenc 112(%r15), %xmm14
  3021. aesenc 112(%r15), %xmm15
  3022. pxor %xmm7, %xmm1
  3023. pxor %xmm7, %xmm2
  3024. pxor %xmm6, %xmm1
  3025. pxor %xmm6, %xmm3
  3026. pxor %xmm4, %xmm1
  3027. movdqa (%rsp), %xmm7
  3028. movdqu 112(%rcx), %xmm0
  3029. pshufd $0x4e, %xmm7, %xmm4
  3030. pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
  3031. aesenc 128(%r15), %xmm8
  3032. pxor %xmm7, %xmm4
  3033. pshufd $0x4e, %xmm0, %xmm5
  3034. pxor %xmm0, %xmm5
  3035. movdqa %xmm0, %xmm6
  3036. pclmulqdq $0x11, %xmm7, %xmm6
  3037. aesenc 128(%r15), %xmm9
  3038. aesenc 128(%r15), %xmm10
  3039. pclmulqdq $0x00, %xmm0, %xmm7
  3040. aesenc 128(%r15), %xmm11
  3041. aesenc 128(%r15), %xmm12
  3042. pclmulqdq $0x00, %xmm5, %xmm4
  3043. aesenc 128(%r15), %xmm13
  3044. aesenc 128(%r15), %xmm14
  3045. aesenc 128(%r15), %xmm15
  3046. pxor %xmm7, %xmm1
  3047. pxor %xmm7, %xmm2
  3048. pxor %xmm6, %xmm1
  3049. pxor %xmm6, %xmm3
  3050. pxor %xmm4, %xmm1
  3051. movdqa %xmm1, %xmm5
  3052. psrldq $8, %xmm1
  3053. pslldq $8, %xmm5
  3054. aesenc 144(%r15), %xmm8
  3055. pxor %xmm5, %xmm2
  3056. pxor %xmm1, %xmm3
  3057. movdqa %xmm2, %xmm7
  3058. movdqa %xmm2, %xmm4
  3059. movdqa %xmm2, %xmm5
  3060. aesenc 144(%r15), %xmm9
  3061. pslld $31, %xmm7
  3062. pslld $30, %xmm4
  3063. pslld $25, %xmm5
  3064. aesenc 144(%r15), %xmm10
  3065. pxor %xmm4, %xmm7
  3066. pxor %xmm5, %xmm7
  3067. aesenc 144(%r15), %xmm11
  3068. movdqa %xmm7, %xmm4
  3069. pslldq $12, %xmm7
  3070. psrldq $4, %xmm4
  3071. aesenc 144(%r15), %xmm12
  3072. pxor %xmm7, %xmm2
  3073. movdqa %xmm2, %xmm5
  3074. movdqa %xmm2, %xmm1
  3075. movdqa %xmm2, %xmm0
  3076. aesenc 144(%r15), %xmm13
  3077. psrld $0x01, %xmm5
  3078. psrld $2, %xmm1
  3079. psrld $7, %xmm0
  3080. aesenc 144(%r15), %xmm14
  3081. pxor %xmm1, %xmm5
  3082. pxor %xmm0, %xmm5
  3083. aesenc 144(%r15), %xmm15
  3084. pxor %xmm4, %xmm5
  3085. pxor %xmm5, %xmm2
  3086. pxor %xmm3, %xmm2
  3087. cmpl $11, %r10d
  3088. movdqa 160(%r15), %xmm7
  3089. jl L_AES_GCM_decrypt_aesenc_128_ghash_avx_done
  3090. aesenc %xmm7, %xmm8
  3091. aesenc %xmm7, %xmm9
  3092. aesenc %xmm7, %xmm10
  3093. aesenc %xmm7, %xmm11
  3094. aesenc %xmm7, %xmm12
  3095. aesenc %xmm7, %xmm13
  3096. aesenc %xmm7, %xmm14
  3097. aesenc %xmm7, %xmm15
  3098. movdqa 176(%r15), %xmm7
  3099. aesenc %xmm7, %xmm8
  3100. aesenc %xmm7, %xmm9
  3101. aesenc %xmm7, %xmm10
  3102. aesenc %xmm7, %xmm11
  3103. aesenc %xmm7, %xmm12
  3104. aesenc %xmm7, %xmm13
  3105. aesenc %xmm7, %xmm14
  3106. aesenc %xmm7, %xmm15
  3107. cmpl $13, %r10d
  3108. movdqa 192(%r15), %xmm7
  3109. jl L_AES_GCM_decrypt_aesenc_128_ghash_avx_done
  3110. aesenc %xmm7, %xmm8
  3111. aesenc %xmm7, %xmm9
  3112. aesenc %xmm7, %xmm10
  3113. aesenc %xmm7, %xmm11
  3114. aesenc %xmm7, %xmm12
  3115. aesenc %xmm7, %xmm13
  3116. aesenc %xmm7, %xmm14
  3117. aesenc %xmm7, %xmm15
  3118. movdqa 208(%r15), %xmm7
  3119. aesenc %xmm7, %xmm8
  3120. aesenc %xmm7, %xmm9
  3121. aesenc %xmm7, %xmm10
  3122. aesenc %xmm7, %xmm11
  3123. aesenc %xmm7, %xmm12
  3124. aesenc %xmm7, %xmm13
  3125. aesenc %xmm7, %xmm14
  3126. aesenc %xmm7, %xmm15
  3127. movdqa 224(%r15), %xmm7
  3128. L_AES_GCM_decrypt_aesenc_128_ghash_avx_done:
  3129. aesenclast %xmm7, %xmm8
  3130. aesenclast %xmm7, %xmm9
  3131. movdqu (%rcx), %xmm0
  3132. movdqu 16(%rcx), %xmm1
  3133. pxor %xmm0, %xmm8
  3134. pxor %xmm1, %xmm9
  3135. movdqu %xmm8, (%rdx)
  3136. movdqu %xmm9, 16(%rdx)
  3137. aesenclast %xmm7, %xmm10
  3138. aesenclast %xmm7, %xmm11
  3139. movdqu 32(%rcx), %xmm0
  3140. movdqu 48(%rcx), %xmm1
  3141. pxor %xmm0, %xmm10
  3142. pxor %xmm1, %xmm11
  3143. movdqu %xmm10, 32(%rdx)
  3144. movdqu %xmm11, 48(%rdx)
  3145. aesenclast %xmm7, %xmm12
  3146. aesenclast %xmm7, %xmm13
  3147. movdqu 64(%rcx), %xmm0
  3148. movdqu 80(%rcx), %xmm1
  3149. pxor %xmm0, %xmm12
  3150. pxor %xmm1, %xmm13
  3151. movdqu %xmm12, 64(%rdx)
  3152. movdqu %xmm13, 80(%rdx)
  3153. aesenclast %xmm7, %xmm14
  3154. aesenclast %xmm7, %xmm15
  3155. movdqu 96(%rcx), %xmm0
  3156. movdqu 112(%rcx), %xmm1
  3157. pxor %xmm0, %xmm14
  3158. pxor %xmm1, %xmm15
  3159. movdqu %xmm14, 96(%rdx)
  3160. movdqu %xmm15, 112(%rdx)
  3161. addl $0x80, %ebx
  3162. cmpl %r13d, %ebx
  3163. jl L_AES_GCM_decrypt_ghash_128
  3164. movdqa %xmm2, %xmm6
  3165. movdqa (%rsp), %xmm5
  3166. L_AES_GCM_decrypt_done_128:
  3167. movl %r9d, %edx
  3168. cmpl %edx, %ebx
  3169. jge L_AES_GCM_decrypt_done_dec
  3170. movl %r9d, %r13d
  3171. andl $0xfffffff0, %r13d
  3172. cmpl %r13d, %ebx
  3173. jge L_AES_GCM_decrypt_last_block_done
  3174. L_AES_GCM_decrypt_last_block_start:
  3175. leaq (%rdi,%rbx,1), %rcx
  3176. leaq (%rsi,%rbx,1), %rdx
  3177. movdqu (%rcx), %xmm1
  3178. movdqa %xmm5, %xmm0
  3179. pshufb L_aes_gcm_bswap_mask(%rip), %xmm1
  3180. pxor %xmm6, %xmm1
  3181. movdqa 128(%rsp), %xmm8
  3182. movdqa %xmm8, %xmm9
  3183. pshufb L_aes_gcm_bswap_epi64(%rip), %xmm8
  3184. paddd L_aes_gcm_one(%rip), %xmm9
  3185. pxor (%r15), %xmm8
  3186. movdqa %xmm9, 128(%rsp)
  3187. movdqa %xmm1, %xmm10
  3188. pclmulqdq $16, %xmm0, %xmm10
  3189. aesenc 16(%r15), %xmm8
  3190. aesenc 32(%r15), %xmm8
  3191. movdqa %xmm1, %xmm11
  3192. pclmulqdq $0x01, %xmm0, %xmm11
  3193. aesenc 48(%r15), %xmm8
  3194. aesenc 64(%r15), %xmm8
  3195. movdqa %xmm1, %xmm12
  3196. pclmulqdq $0x00, %xmm0, %xmm12
  3197. aesenc 80(%r15), %xmm8
  3198. movdqa %xmm1, %xmm1
  3199. pclmulqdq $0x11, %xmm0, %xmm1
  3200. aesenc 96(%r15), %xmm8
  3201. pxor %xmm11, %xmm10
  3202. movdqa %xmm10, %xmm2
  3203. psrldq $8, %xmm10
  3204. pslldq $8, %xmm2
  3205. aesenc 112(%r15), %xmm8
  3206. movdqa %xmm1, %xmm3
  3207. pxor %xmm12, %xmm2
  3208. pxor %xmm10, %xmm3
  3209. movdqa L_aes_gcm_mod2_128(%rip), %xmm0
  3210. movdqa %xmm2, %xmm11
  3211. pclmulqdq $16, %xmm0, %xmm11
  3212. aesenc 128(%r15), %xmm8
  3213. pshufd $0x4e, %xmm2, %xmm10
  3214. pxor %xmm11, %xmm10
  3215. movdqa %xmm10, %xmm11
  3216. pclmulqdq $16, %xmm0, %xmm11
  3217. aesenc 144(%r15), %xmm8
  3218. pshufd $0x4e, %xmm10, %xmm6
  3219. pxor %xmm11, %xmm6
  3220. pxor %xmm3, %xmm6
  3221. cmpl $11, %r10d
  3222. movdqa 160(%r15), %xmm9
  3223. jl L_AES_GCM_decrypt_aesenc_gfmul_last
  3224. aesenc %xmm9, %xmm8
  3225. aesenc 176(%r15), %xmm8
  3226. cmpl $13, %r10d
  3227. movdqa 192(%r15), %xmm9
  3228. jl L_AES_GCM_decrypt_aesenc_gfmul_last
  3229. aesenc %xmm9, %xmm8
  3230. aesenc 208(%r15), %xmm8
  3231. movdqa 224(%r15), %xmm9
  3232. L_AES_GCM_decrypt_aesenc_gfmul_last:
  3233. aesenclast %xmm9, %xmm8
  3234. movdqu (%rcx), %xmm9
  3235. pxor %xmm9, %xmm8
  3236. movdqu %xmm8, (%rdx)
  3237. addl $16, %ebx
  3238. cmpl %r13d, %ebx
  3239. jl L_AES_GCM_decrypt_last_block_start
  3240. L_AES_GCM_decrypt_last_block_done:
  3241. movl %r9d, %ecx
  3242. movl %ecx, %edx
  3243. andl $15, %ecx
  3244. jz L_AES_GCM_decrypt_aesenc_last15_dec_avx_done
  3245. movdqa 128(%rsp), %xmm4
  3246. pshufb L_aes_gcm_bswap_epi64(%rip), %xmm4
  3247. pxor (%r15), %xmm4
  3248. aesenc 16(%r15), %xmm4
  3249. aesenc 32(%r15), %xmm4
  3250. aesenc 48(%r15), %xmm4
  3251. aesenc 64(%r15), %xmm4
  3252. aesenc 80(%r15), %xmm4
  3253. aesenc 96(%r15), %xmm4
  3254. aesenc 112(%r15), %xmm4
  3255. aesenc 128(%r15), %xmm4
  3256. aesenc 144(%r15), %xmm4
  3257. cmpl $11, %r10d
  3258. movdqa 160(%r15), %xmm9
  3259. jl L_AES_GCM_decrypt_aesenc_last15_dec_avx_aesenc_avx_last
  3260. aesenc %xmm9, %xmm4
  3261. aesenc 176(%r15), %xmm4
  3262. cmpl $13, %r10d
  3263. movdqa 192(%r15), %xmm9
  3264. jl L_AES_GCM_decrypt_aesenc_last15_dec_avx_aesenc_avx_last
  3265. aesenc %xmm9, %xmm4
  3266. aesenc 208(%r15), %xmm4
  3267. movdqa 224(%r15), %xmm9
  3268. L_AES_GCM_decrypt_aesenc_last15_dec_avx_aesenc_avx_last:
  3269. aesenclast %xmm9, %xmm4
  3270. subq $32, %rsp
  3271. xorl %ecx, %ecx
  3272. movdqa %xmm4, (%rsp)
  3273. pxor %xmm0, %xmm0
  3274. movdqa %xmm0, 16(%rsp)
  3275. L_AES_GCM_decrypt_aesenc_last15_dec_avx_loop:
  3276. movzbl (%rdi,%rbx,1), %r13d
  3277. movb %r13b, 16(%rsp,%rcx,1)
  3278. xorb (%rsp,%rcx,1), %r13b
  3279. movb %r13b, (%rsi,%rbx,1)
  3280. incl %ebx
  3281. incl %ecx
  3282. cmpl %edx, %ebx
  3283. jl L_AES_GCM_decrypt_aesenc_last15_dec_avx_loop
  3284. movdqa 16(%rsp), %xmm4
  3285. addq $32, %rsp
  3286. pshufb L_aes_gcm_bswap_mask(%rip), %xmm4
  3287. pxor %xmm4, %xmm6
  3288. pshufd $0x4e, %xmm5, %xmm9
  3289. pshufd $0x4e, %xmm6, %xmm10
  3290. movdqa %xmm6, %xmm11
  3291. movdqa %xmm6, %xmm8
  3292. pclmulqdq $0x11, %xmm5, %xmm11
  3293. pclmulqdq $0x00, %xmm5, %xmm8
  3294. pxor %xmm5, %xmm9
  3295. pxor %xmm6, %xmm10
  3296. pclmulqdq $0x00, %xmm10, %xmm9
  3297. pxor %xmm8, %xmm9
  3298. pxor %xmm11, %xmm9
  3299. movdqa %xmm9, %xmm10
  3300. movdqa %xmm11, %xmm6
  3301. pslldq $8, %xmm10
  3302. psrldq $8, %xmm9
  3303. pxor %xmm10, %xmm8
  3304. pxor %xmm9, %xmm6
  3305. movdqa %xmm8, %xmm12
  3306. movdqa %xmm8, %xmm13
  3307. movdqa %xmm8, %xmm14
  3308. pslld $31, %xmm12
  3309. pslld $30, %xmm13
  3310. pslld $25, %xmm14
  3311. pxor %xmm13, %xmm12
  3312. pxor %xmm14, %xmm12
  3313. movdqa %xmm12, %xmm13
  3314. psrldq $4, %xmm13
  3315. pslldq $12, %xmm12
  3316. pxor %xmm12, %xmm8
  3317. movdqa %xmm8, %xmm14
  3318. movdqa %xmm8, %xmm10
  3319. movdqa %xmm8, %xmm9
  3320. psrld $0x01, %xmm14
  3321. psrld $2, %xmm10
  3322. psrld $7, %xmm9
  3323. pxor %xmm10, %xmm14
  3324. pxor %xmm9, %xmm14
  3325. pxor %xmm13, %xmm14
  3326. pxor %xmm8, %xmm14
  3327. pxor %xmm14, %xmm6
  3328. L_AES_GCM_decrypt_aesenc_last15_dec_avx_done:
  3329. L_AES_GCM_decrypt_done_dec:
  3330. movl %r9d, %edx
  3331. movl %r11d, %ecx
  3332. shlq $3, %rdx
  3333. shlq $3, %rcx
  3334. pinsrq $0x00, %rdx, %xmm0
  3335. pinsrq $0x01, %rcx, %xmm0
  3336. pxor %xmm0, %xmm6
  3337. pshufd $0x4e, %xmm5, %xmm9
  3338. pshufd $0x4e, %xmm6, %xmm10
  3339. movdqa %xmm6, %xmm11
  3340. movdqa %xmm6, %xmm8
  3341. pclmulqdq $0x11, %xmm5, %xmm11
  3342. pclmulqdq $0x00, %xmm5, %xmm8
  3343. pxor %xmm5, %xmm9
  3344. pxor %xmm6, %xmm10
  3345. pclmulqdq $0x00, %xmm10, %xmm9
  3346. pxor %xmm8, %xmm9
  3347. pxor %xmm11, %xmm9
  3348. movdqa %xmm9, %xmm10
  3349. movdqa %xmm11, %xmm6
  3350. pslldq $8, %xmm10
  3351. psrldq $8, %xmm9
  3352. pxor %xmm10, %xmm8
  3353. pxor %xmm9, %xmm6
  3354. movdqa %xmm8, %xmm12
  3355. movdqa %xmm8, %xmm13
  3356. movdqa %xmm8, %xmm14
  3357. pslld $31, %xmm12
  3358. pslld $30, %xmm13
  3359. pslld $25, %xmm14
  3360. pxor %xmm13, %xmm12
  3361. pxor %xmm14, %xmm12
  3362. movdqa %xmm12, %xmm13
  3363. psrldq $4, %xmm13
  3364. pslldq $12, %xmm12
  3365. pxor %xmm12, %xmm8
  3366. movdqa %xmm8, %xmm14
  3367. movdqa %xmm8, %xmm10
  3368. movdqa %xmm8, %xmm9
  3369. psrld $0x01, %xmm14
  3370. psrld $2, %xmm10
  3371. psrld $7, %xmm9
  3372. pxor %xmm10, %xmm14
  3373. pxor %xmm9, %xmm14
  3374. pxor %xmm13, %xmm14
  3375. pxor %xmm8, %xmm14
  3376. pxor %xmm14, %xmm6
  3377. pshufb L_aes_gcm_bswap_mask(%rip), %xmm6
  3378. movdqa 144(%rsp), %xmm0
  3379. pxor %xmm6, %xmm0
  3380. cmpl $16, %r14d
  3381. je L_AES_GCM_decrypt_cmp_tag_16
  3382. subq $16, %rsp
  3383. xorq %rcx, %rcx
  3384. xorq %rbx, %rbx
  3385. movdqa %xmm0, (%rsp)
  3386. L_AES_GCM_decrypt_cmp_tag_loop:
  3387. movzbl (%rsp,%rcx,1), %r13d
  3388. xorb (%r8,%rcx,1), %r13b
  3389. orb %r13b, %bl
  3390. incl %ecx
  3391. cmpl %r14d, %ecx
  3392. jne L_AES_GCM_decrypt_cmp_tag_loop
  3393. cmpb $0x00, %bl
  3394. sete %bl
  3395. addq $16, %rsp
  3396. xorq %rcx, %rcx
  3397. jmp L_AES_GCM_decrypt_cmp_tag_done
  3398. L_AES_GCM_decrypt_cmp_tag_16:
  3399. movdqu (%r8), %xmm1
  3400. pcmpeqb %xmm1, %xmm0
  3401. pmovmskb %xmm0, %rdx
  3402. # %%edx == 0xFFFF then return 1 else => return 0
  3403. xorl %ebx, %ebx
  3404. cmpl $0xffff, %edx
  3405. sete %bl
  3406. L_AES_GCM_decrypt_cmp_tag_done:
  3407. movl %ebx, (%rbp)
  3408. addq $0xa8, %rsp
  3409. popq %rbp
  3410. popq %r15
  3411. popq %r14
  3412. popq %rbx
  3413. popq %r12
  3414. popq %r13
  3415. repz retq
  3416. #ifndef __APPLE__
  3417. .size AES_GCM_decrypt,.-AES_GCM_decrypt
  3418. #endif /* __APPLE__ */
  3419. #ifdef WOLFSSL_AESGCM_STREAM
  3420. #ifndef __APPLE__
  3421. .text
  3422. .globl AES_GCM_init_aesni
  3423. .type AES_GCM_init_aesni,@function
  3424. .align 16
  3425. AES_GCM_init_aesni:
  3426. #else
  3427. .section __TEXT,__text
  3428. .globl _AES_GCM_init_aesni
  3429. .p2align 4
  3430. _AES_GCM_init_aesni:
  3431. #endif /* __APPLE__ */
  3432. pushq %r12
  3433. pushq %r13
  3434. pushq %r14
  3435. movq %rdx, %r10
  3436. movl %ecx, %r11d
  3437. movq 32(%rsp), %rax
  3438. subq $16, %rsp
  3439. pxor %xmm4, %xmm4
  3440. movl %r11d, %edx
  3441. cmpl $12, %edx
  3442. jne L_AES_GCM_init_aesni_iv_not_12
  3443. # # Calculate values when IV is 12 bytes
  3444. # Set counter based on IV
  3445. movl $0x1000000, %ecx
  3446. pinsrq $0x00, (%r10), %xmm4
  3447. pinsrd $2, 8(%r10), %xmm4
  3448. pinsrd $3, %ecx, %xmm4
  3449. # H = Encrypt X(=0) and T = Encrypt counter
  3450. movdqa %xmm4, %xmm1
  3451. movdqa (%rdi), %xmm5
  3452. pxor %xmm5, %xmm1
  3453. movdqa 16(%rdi), %xmm7
  3454. aesenc %xmm7, %xmm5
  3455. aesenc %xmm7, %xmm1
  3456. movdqa 32(%rdi), %xmm7
  3457. aesenc %xmm7, %xmm5
  3458. aesenc %xmm7, %xmm1
  3459. movdqa 48(%rdi), %xmm7
  3460. aesenc %xmm7, %xmm5
  3461. aesenc %xmm7, %xmm1
  3462. movdqa 64(%rdi), %xmm7
  3463. aesenc %xmm7, %xmm5
  3464. aesenc %xmm7, %xmm1
  3465. movdqa 80(%rdi), %xmm7
  3466. aesenc %xmm7, %xmm5
  3467. aesenc %xmm7, %xmm1
  3468. movdqa 96(%rdi), %xmm7
  3469. aesenc %xmm7, %xmm5
  3470. aesenc %xmm7, %xmm1
  3471. movdqa 112(%rdi), %xmm7
  3472. aesenc %xmm7, %xmm5
  3473. aesenc %xmm7, %xmm1
  3474. movdqa 128(%rdi), %xmm7
  3475. aesenc %xmm7, %xmm5
  3476. aesenc %xmm7, %xmm1
  3477. movdqa 144(%rdi), %xmm7
  3478. aesenc %xmm7, %xmm5
  3479. aesenc %xmm7, %xmm1
  3480. cmpl $11, %esi
  3481. movdqa 160(%rdi), %xmm7
  3482. jl L_AES_GCM_init_aesni_calc_iv_12_last
  3483. aesenc %xmm7, %xmm5
  3484. aesenc %xmm7, %xmm1
  3485. movdqa 176(%rdi), %xmm7
  3486. aesenc %xmm7, %xmm5
  3487. aesenc %xmm7, %xmm1
  3488. cmpl $13, %esi
  3489. movdqa 192(%rdi), %xmm7
  3490. jl L_AES_GCM_init_aesni_calc_iv_12_last
  3491. aesenc %xmm7, %xmm5
  3492. aesenc %xmm7, %xmm1
  3493. movdqa 208(%rdi), %xmm7
  3494. aesenc %xmm7, %xmm5
  3495. aesenc %xmm7, %xmm1
  3496. movdqa 224(%rdi), %xmm7
  3497. L_AES_GCM_init_aesni_calc_iv_12_last:
  3498. aesenclast %xmm7, %xmm5
  3499. aesenclast %xmm7, %xmm1
  3500. pshufb L_aes_gcm_bswap_mask(%rip), %xmm5
  3501. movdqa %xmm1, %xmm15
  3502. jmp L_AES_GCM_init_aesni_iv_done
  3503. L_AES_GCM_init_aesni_iv_not_12:
  3504. # Calculate values when IV is not 12 bytes
  3505. # H = Encrypt X(=0)
  3506. movdqa (%rdi), %xmm5
  3507. aesenc 16(%rdi), %xmm5
  3508. aesenc 32(%rdi), %xmm5
  3509. aesenc 48(%rdi), %xmm5
  3510. aesenc 64(%rdi), %xmm5
  3511. aesenc 80(%rdi), %xmm5
  3512. aesenc 96(%rdi), %xmm5
  3513. aesenc 112(%rdi), %xmm5
  3514. aesenc 128(%rdi), %xmm5
  3515. aesenc 144(%rdi), %xmm5
  3516. cmpl $11, %esi
  3517. movdqa 160(%rdi), %xmm9
  3518. jl L_AES_GCM_init_aesni_calc_iv_1_aesenc_avx_last
  3519. aesenc %xmm9, %xmm5
  3520. aesenc 176(%rdi), %xmm5
  3521. cmpl $13, %esi
  3522. movdqa 192(%rdi), %xmm9
  3523. jl L_AES_GCM_init_aesni_calc_iv_1_aesenc_avx_last
  3524. aesenc %xmm9, %xmm5
  3525. aesenc 208(%rdi), %xmm5
  3526. movdqa 224(%rdi), %xmm9
  3527. L_AES_GCM_init_aesni_calc_iv_1_aesenc_avx_last:
  3528. aesenclast %xmm9, %xmm5
  3529. pshufb L_aes_gcm_bswap_mask(%rip), %xmm5
  3530. # Calc counter
  3531. # Initialization vector
  3532. cmpl $0x00, %edx
  3533. movq $0x00, %rcx
  3534. je L_AES_GCM_init_aesni_calc_iv_done
  3535. cmpl $16, %edx
  3536. jl L_AES_GCM_init_aesni_calc_iv_lt16
  3537. andl $0xfffffff0, %edx
  3538. L_AES_GCM_init_aesni_calc_iv_16_loop:
  3539. movdqu (%r10,%rcx,1), %xmm8
  3540. pshufb L_aes_gcm_bswap_mask(%rip), %xmm8
  3541. pxor %xmm8, %xmm4
  3542. pshufd $0x4e, %xmm4, %xmm1
  3543. pshufd $0x4e, %xmm5, %xmm2
  3544. movdqa %xmm5, %xmm3
  3545. movdqa %xmm5, %xmm0
  3546. pclmulqdq $0x11, %xmm4, %xmm3
  3547. pclmulqdq $0x00, %xmm4, %xmm0
  3548. pxor %xmm4, %xmm1
  3549. pxor %xmm5, %xmm2
  3550. pclmulqdq $0x00, %xmm2, %xmm1
  3551. pxor %xmm0, %xmm1
  3552. pxor %xmm3, %xmm1
  3553. movdqa %xmm1, %xmm2
  3554. movdqa %xmm0, %xmm7
  3555. movdqa %xmm3, %xmm4
  3556. pslldq $8, %xmm2
  3557. psrldq $8, %xmm1
  3558. pxor %xmm2, %xmm7
  3559. pxor %xmm1, %xmm4
  3560. movdqa %xmm7, %xmm0
  3561. movdqa %xmm4, %xmm1
  3562. psrld $31, %xmm0
  3563. psrld $31, %xmm1
  3564. pslld $0x01, %xmm7
  3565. pslld $0x01, %xmm4
  3566. movdqa %xmm0, %xmm2
  3567. pslldq $4, %xmm0
  3568. psrldq $12, %xmm2
  3569. pslldq $4, %xmm1
  3570. por %xmm2, %xmm4
  3571. por %xmm0, %xmm7
  3572. por %xmm1, %xmm4
  3573. movdqa %xmm7, %xmm0
  3574. movdqa %xmm7, %xmm1
  3575. movdqa %xmm7, %xmm2
  3576. pslld $31, %xmm0
  3577. pslld $30, %xmm1
  3578. pslld $25, %xmm2
  3579. pxor %xmm1, %xmm0
  3580. pxor %xmm2, %xmm0
  3581. movdqa %xmm0, %xmm1
  3582. psrldq $4, %xmm1
  3583. pslldq $12, %xmm0
  3584. pxor %xmm0, %xmm7
  3585. movdqa %xmm7, %xmm2
  3586. movdqa %xmm7, %xmm3
  3587. movdqa %xmm7, %xmm0
  3588. psrld $0x01, %xmm2
  3589. psrld $2, %xmm3
  3590. psrld $7, %xmm0
  3591. pxor %xmm3, %xmm2
  3592. pxor %xmm0, %xmm2
  3593. pxor %xmm1, %xmm2
  3594. pxor %xmm7, %xmm2
  3595. pxor %xmm2, %xmm4
  3596. addl $16, %ecx
  3597. cmpl %edx, %ecx
  3598. jl L_AES_GCM_init_aesni_calc_iv_16_loop
  3599. movl %r11d, %edx
  3600. cmpl %edx, %ecx
  3601. je L_AES_GCM_init_aesni_calc_iv_done
  3602. L_AES_GCM_init_aesni_calc_iv_lt16:
  3603. subq $16, %rsp
  3604. pxor %xmm8, %xmm8
  3605. xorl %r13d, %r13d
  3606. movdqa %xmm8, (%rsp)
  3607. L_AES_GCM_init_aesni_calc_iv_loop:
  3608. movzbl (%r10,%rcx,1), %r12d
  3609. movb %r12b, (%rsp,%r13,1)
  3610. incl %ecx
  3611. incl %r13d
  3612. cmpl %edx, %ecx
  3613. jl L_AES_GCM_init_aesni_calc_iv_loop
  3614. movdqa (%rsp), %xmm8
  3615. addq $16, %rsp
  3616. pshufb L_aes_gcm_bswap_mask(%rip), %xmm8
  3617. pxor %xmm8, %xmm4
  3618. pshufd $0x4e, %xmm4, %xmm1
  3619. pshufd $0x4e, %xmm5, %xmm2
  3620. movdqa %xmm5, %xmm3
  3621. movdqa %xmm5, %xmm0
  3622. pclmulqdq $0x11, %xmm4, %xmm3
  3623. pclmulqdq $0x00, %xmm4, %xmm0
  3624. pxor %xmm4, %xmm1
  3625. pxor %xmm5, %xmm2
  3626. pclmulqdq $0x00, %xmm2, %xmm1
  3627. pxor %xmm0, %xmm1
  3628. pxor %xmm3, %xmm1
  3629. movdqa %xmm1, %xmm2
  3630. movdqa %xmm0, %xmm7
  3631. movdqa %xmm3, %xmm4
  3632. pslldq $8, %xmm2
  3633. psrldq $8, %xmm1
  3634. pxor %xmm2, %xmm7
  3635. pxor %xmm1, %xmm4
  3636. movdqa %xmm7, %xmm0
  3637. movdqa %xmm4, %xmm1
  3638. psrld $31, %xmm0
  3639. psrld $31, %xmm1
  3640. pslld $0x01, %xmm7
  3641. pslld $0x01, %xmm4
  3642. movdqa %xmm0, %xmm2
  3643. pslldq $4, %xmm0
  3644. psrldq $12, %xmm2
  3645. pslldq $4, %xmm1
  3646. por %xmm2, %xmm4
  3647. por %xmm0, %xmm7
  3648. por %xmm1, %xmm4
  3649. movdqa %xmm7, %xmm0
  3650. movdqa %xmm7, %xmm1
  3651. movdqa %xmm7, %xmm2
  3652. pslld $31, %xmm0
  3653. pslld $30, %xmm1
  3654. pslld $25, %xmm2
  3655. pxor %xmm1, %xmm0
  3656. pxor %xmm2, %xmm0
  3657. movdqa %xmm0, %xmm1
  3658. psrldq $4, %xmm1
  3659. pslldq $12, %xmm0
  3660. pxor %xmm0, %xmm7
  3661. movdqa %xmm7, %xmm2
  3662. movdqa %xmm7, %xmm3
  3663. movdqa %xmm7, %xmm0
  3664. psrld $0x01, %xmm2
  3665. psrld $2, %xmm3
  3666. psrld $7, %xmm0
  3667. pxor %xmm3, %xmm2
  3668. pxor %xmm0, %xmm2
  3669. pxor %xmm1, %xmm2
  3670. pxor %xmm7, %xmm2
  3671. pxor %xmm2, %xmm4
  3672. L_AES_GCM_init_aesni_calc_iv_done:
  3673. # T = Encrypt counter
  3674. pxor %xmm0, %xmm0
  3675. shll $3, %edx
  3676. pinsrq $0x00, %rdx, %xmm0
  3677. pxor %xmm0, %xmm4
  3678. pshufd $0x4e, %xmm4, %xmm1
  3679. pshufd $0x4e, %xmm5, %xmm2
  3680. movdqa %xmm5, %xmm3
  3681. movdqa %xmm5, %xmm0
  3682. pclmulqdq $0x11, %xmm4, %xmm3
  3683. pclmulqdq $0x00, %xmm4, %xmm0
  3684. pxor %xmm4, %xmm1
  3685. pxor %xmm5, %xmm2
  3686. pclmulqdq $0x00, %xmm2, %xmm1
  3687. pxor %xmm0, %xmm1
  3688. pxor %xmm3, %xmm1
  3689. movdqa %xmm1, %xmm2
  3690. movdqa %xmm0, %xmm7
  3691. movdqa %xmm3, %xmm4
  3692. pslldq $8, %xmm2
  3693. psrldq $8, %xmm1
  3694. pxor %xmm2, %xmm7
  3695. pxor %xmm1, %xmm4
  3696. movdqa %xmm7, %xmm0
  3697. movdqa %xmm4, %xmm1
  3698. psrld $31, %xmm0
  3699. psrld $31, %xmm1
  3700. pslld $0x01, %xmm7
  3701. pslld $0x01, %xmm4
  3702. movdqa %xmm0, %xmm2
  3703. pslldq $4, %xmm0
  3704. psrldq $12, %xmm2
  3705. pslldq $4, %xmm1
  3706. por %xmm2, %xmm4
  3707. por %xmm0, %xmm7
  3708. por %xmm1, %xmm4
  3709. movdqa %xmm7, %xmm0
  3710. movdqa %xmm7, %xmm1
  3711. movdqa %xmm7, %xmm2
  3712. pslld $31, %xmm0
  3713. pslld $30, %xmm1
  3714. pslld $25, %xmm2
  3715. pxor %xmm1, %xmm0
  3716. pxor %xmm2, %xmm0
  3717. movdqa %xmm0, %xmm1
  3718. psrldq $4, %xmm1
  3719. pslldq $12, %xmm0
  3720. pxor %xmm0, %xmm7
  3721. movdqa %xmm7, %xmm2
  3722. movdqa %xmm7, %xmm3
  3723. movdqa %xmm7, %xmm0
  3724. psrld $0x01, %xmm2
  3725. psrld $2, %xmm3
  3726. psrld $7, %xmm0
  3727. pxor %xmm3, %xmm2
  3728. pxor %xmm0, %xmm2
  3729. pxor %xmm1, %xmm2
  3730. pxor %xmm7, %xmm2
  3731. pxor %xmm2, %xmm4
  3732. pshufb L_aes_gcm_bswap_mask(%rip), %xmm4
  3733. # Encrypt counter
  3734. movdqa (%rdi), %xmm8
  3735. pxor %xmm4, %xmm8
  3736. aesenc 16(%rdi), %xmm8
  3737. aesenc 32(%rdi), %xmm8
  3738. aesenc 48(%rdi), %xmm8
  3739. aesenc 64(%rdi), %xmm8
  3740. aesenc 80(%rdi), %xmm8
  3741. aesenc 96(%rdi), %xmm8
  3742. aesenc 112(%rdi), %xmm8
  3743. aesenc 128(%rdi), %xmm8
  3744. aesenc 144(%rdi), %xmm8
  3745. cmpl $11, %esi
  3746. movdqa 160(%rdi), %xmm9
  3747. jl L_AES_GCM_init_aesni_calc_iv_2_aesenc_avx_last
  3748. aesenc %xmm9, %xmm8
  3749. aesenc 176(%rdi), %xmm8
  3750. cmpl $13, %esi
  3751. movdqa 192(%rdi), %xmm9
  3752. jl L_AES_GCM_init_aesni_calc_iv_2_aesenc_avx_last
  3753. aesenc %xmm9, %xmm8
  3754. aesenc 208(%rdi), %xmm8
  3755. movdqa 224(%rdi), %xmm9
  3756. L_AES_GCM_init_aesni_calc_iv_2_aesenc_avx_last:
  3757. aesenclast %xmm9, %xmm8
  3758. movdqa %xmm8, %xmm15
  3759. L_AES_GCM_init_aesni_iv_done:
  3760. movdqa %xmm15, (%rax)
  3761. pshufb L_aes_gcm_bswap_epi64(%rip), %xmm4
  3762. paddd L_aes_gcm_one(%rip), %xmm4
  3763. movdqa %xmm5, (%r8)
  3764. movdqa %xmm4, (%r9)
  3765. addq $16, %rsp
  3766. popq %r14
  3767. popq %r13
  3768. popq %r12
  3769. repz retq
  3770. #ifndef __APPLE__
  3771. .size AES_GCM_init_aesni,.-AES_GCM_init_aesni
  3772. #endif /* __APPLE__ */
  3773. #ifndef __APPLE__
  3774. .text
  3775. .globl AES_GCM_aad_update_aesni
  3776. .type AES_GCM_aad_update_aesni,@function
  3777. .align 16
  3778. AES_GCM_aad_update_aesni:
  3779. #else
  3780. .section __TEXT,__text
  3781. .globl _AES_GCM_aad_update_aesni
  3782. .p2align 4
  3783. _AES_GCM_aad_update_aesni:
  3784. #endif /* __APPLE__ */
  3785. movq %rcx, %rax
  3786. movdqa (%rdx), %xmm5
  3787. movdqa (%rax), %xmm6
  3788. xorl %ecx, %ecx
  3789. L_AES_GCM_aad_update_aesni_16_loop:
  3790. movdqu (%rdi,%rcx,1), %xmm8
  3791. pshufb L_aes_gcm_bswap_mask(%rip), %xmm8
  3792. pxor %xmm8, %xmm5
  3793. pshufd $0x4e, %xmm5, %xmm1
  3794. pshufd $0x4e, %xmm6, %xmm2
  3795. movdqa %xmm6, %xmm3
  3796. movdqa %xmm6, %xmm0
  3797. pclmulqdq $0x11, %xmm5, %xmm3
  3798. pclmulqdq $0x00, %xmm5, %xmm0
  3799. pxor %xmm5, %xmm1
  3800. pxor %xmm6, %xmm2
  3801. pclmulqdq $0x00, %xmm2, %xmm1
  3802. pxor %xmm0, %xmm1
  3803. pxor %xmm3, %xmm1
  3804. movdqa %xmm1, %xmm2
  3805. movdqa %xmm0, %xmm4
  3806. movdqa %xmm3, %xmm5
  3807. pslldq $8, %xmm2
  3808. psrldq $8, %xmm1
  3809. pxor %xmm2, %xmm4
  3810. pxor %xmm1, %xmm5
  3811. movdqa %xmm4, %xmm0
  3812. movdqa %xmm5, %xmm1
  3813. psrld $31, %xmm0
  3814. psrld $31, %xmm1
  3815. pslld $0x01, %xmm4
  3816. pslld $0x01, %xmm5
  3817. movdqa %xmm0, %xmm2
  3818. pslldq $4, %xmm0
  3819. psrldq $12, %xmm2
  3820. pslldq $4, %xmm1
  3821. por %xmm2, %xmm5
  3822. por %xmm0, %xmm4
  3823. por %xmm1, %xmm5
  3824. movdqa %xmm4, %xmm0
  3825. movdqa %xmm4, %xmm1
  3826. movdqa %xmm4, %xmm2
  3827. pslld $31, %xmm0
  3828. pslld $30, %xmm1
  3829. pslld $25, %xmm2
  3830. pxor %xmm1, %xmm0
  3831. pxor %xmm2, %xmm0
  3832. movdqa %xmm0, %xmm1
  3833. psrldq $4, %xmm1
  3834. pslldq $12, %xmm0
  3835. pxor %xmm0, %xmm4
  3836. movdqa %xmm4, %xmm2
  3837. movdqa %xmm4, %xmm3
  3838. movdqa %xmm4, %xmm0
  3839. psrld $0x01, %xmm2
  3840. psrld $2, %xmm3
  3841. psrld $7, %xmm0
  3842. pxor %xmm3, %xmm2
  3843. pxor %xmm0, %xmm2
  3844. pxor %xmm1, %xmm2
  3845. pxor %xmm4, %xmm2
  3846. pxor %xmm2, %xmm5
  3847. addl $16, %ecx
  3848. cmpl %esi, %ecx
  3849. jl L_AES_GCM_aad_update_aesni_16_loop
  3850. movdqa %xmm5, (%rdx)
  3851. repz retq
  3852. #ifndef __APPLE__
  3853. .size AES_GCM_aad_update_aesni,.-AES_GCM_aad_update_aesni
  3854. #endif /* __APPLE__ */
  3855. #ifndef __APPLE__
  3856. .text
  3857. .globl AES_GCM_encrypt_block_aesni
  3858. .type AES_GCM_encrypt_block_aesni,@function
  3859. .align 16
  3860. AES_GCM_encrypt_block_aesni:
  3861. #else
  3862. .section __TEXT,__text
  3863. .globl _AES_GCM_encrypt_block_aesni
  3864. .p2align 4
  3865. _AES_GCM_encrypt_block_aesni:
  3866. #endif /* __APPLE__ */
  3867. movq %rdx, %r10
  3868. movq %rcx, %r11
  3869. movdqa (%r8), %xmm8
  3870. movdqa %xmm8, %xmm9
  3871. pshufb L_aes_gcm_bswap_epi64(%rip), %xmm8
  3872. paddd L_aes_gcm_one(%rip), %xmm9
  3873. pxor (%rdi), %xmm8
  3874. movdqa %xmm9, (%r8)
  3875. aesenc 16(%rdi), %xmm8
  3876. aesenc 32(%rdi), %xmm8
  3877. aesenc 48(%rdi), %xmm8
  3878. aesenc 64(%rdi), %xmm8
  3879. aesenc 80(%rdi), %xmm8
  3880. aesenc 96(%rdi), %xmm8
  3881. aesenc 112(%rdi), %xmm8
  3882. aesenc 128(%rdi), %xmm8
  3883. aesenc 144(%rdi), %xmm8
  3884. cmpl $11, %esi
  3885. movdqa 160(%rdi), %xmm9
  3886. jl L_AES_GCM_encrypt_block_aesni_aesenc_block_aesenc_avx_last
  3887. aesenc %xmm9, %xmm8
  3888. aesenc 176(%rdi), %xmm8
  3889. cmpl $13, %esi
  3890. movdqa 192(%rdi), %xmm9
  3891. jl L_AES_GCM_encrypt_block_aesni_aesenc_block_aesenc_avx_last
  3892. aesenc %xmm9, %xmm8
  3893. aesenc 208(%rdi), %xmm8
  3894. movdqa 224(%rdi), %xmm9
  3895. L_AES_GCM_encrypt_block_aesni_aesenc_block_aesenc_avx_last:
  3896. aesenclast %xmm9, %xmm8
  3897. movdqu (%r11), %xmm9
  3898. pxor %xmm9, %xmm8
  3899. movdqu %xmm8, (%r10)
  3900. pshufb L_aes_gcm_bswap_mask(%rip), %xmm8
  3901. repz retq
  3902. #ifndef __APPLE__
  3903. .size AES_GCM_encrypt_block_aesni,.-AES_GCM_encrypt_block_aesni
  3904. #endif /* __APPLE__ */
  3905. #ifndef __APPLE__
  3906. .text
  3907. .globl AES_GCM_ghash_block_aesni
  3908. .type AES_GCM_ghash_block_aesni,@function
  3909. .align 16
  3910. AES_GCM_ghash_block_aesni:
  3911. #else
  3912. .section __TEXT,__text
  3913. .globl _AES_GCM_ghash_block_aesni
  3914. .p2align 4
  3915. _AES_GCM_ghash_block_aesni:
  3916. #endif /* __APPLE__ */
  3917. movdqa (%rsi), %xmm4
  3918. movdqa (%rdx), %xmm5
  3919. movdqu (%rdi), %xmm8
  3920. pshufb L_aes_gcm_bswap_mask(%rip), %xmm8
  3921. pxor %xmm8, %xmm4
  3922. pshufd $0x4e, %xmm4, %xmm1
  3923. pshufd $0x4e, %xmm5, %xmm2
  3924. movdqa %xmm5, %xmm3
  3925. movdqa %xmm5, %xmm0
  3926. pclmulqdq $0x11, %xmm4, %xmm3
  3927. pclmulqdq $0x00, %xmm4, %xmm0
  3928. pxor %xmm4, %xmm1
  3929. pxor %xmm5, %xmm2
  3930. pclmulqdq $0x00, %xmm2, %xmm1
  3931. pxor %xmm0, %xmm1
  3932. pxor %xmm3, %xmm1
  3933. movdqa %xmm1, %xmm2
  3934. movdqa %xmm0, %xmm6
  3935. movdqa %xmm3, %xmm4
  3936. pslldq $8, %xmm2
  3937. psrldq $8, %xmm1
  3938. pxor %xmm2, %xmm6
  3939. pxor %xmm1, %xmm4
  3940. movdqa %xmm6, %xmm0
  3941. movdqa %xmm4, %xmm1
  3942. psrld $31, %xmm0
  3943. psrld $31, %xmm1
  3944. pslld $0x01, %xmm6
  3945. pslld $0x01, %xmm4
  3946. movdqa %xmm0, %xmm2
  3947. pslldq $4, %xmm0
  3948. psrldq $12, %xmm2
  3949. pslldq $4, %xmm1
  3950. por %xmm2, %xmm4
  3951. por %xmm0, %xmm6
  3952. por %xmm1, %xmm4
  3953. movdqa %xmm6, %xmm0
  3954. movdqa %xmm6, %xmm1
  3955. movdqa %xmm6, %xmm2
  3956. pslld $31, %xmm0
  3957. pslld $30, %xmm1
  3958. pslld $25, %xmm2
  3959. pxor %xmm1, %xmm0
  3960. pxor %xmm2, %xmm0
  3961. movdqa %xmm0, %xmm1
  3962. psrldq $4, %xmm1
  3963. pslldq $12, %xmm0
  3964. pxor %xmm0, %xmm6
  3965. movdqa %xmm6, %xmm2
  3966. movdqa %xmm6, %xmm3
  3967. movdqa %xmm6, %xmm0
  3968. psrld $0x01, %xmm2
  3969. psrld $2, %xmm3
  3970. psrld $7, %xmm0
  3971. pxor %xmm3, %xmm2
  3972. pxor %xmm0, %xmm2
  3973. pxor %xmm1, %xmm2
  3974. pxor %xmm6, %xmm2
  3975. pxor %xmm2, %xmm4
  3976. movdqa %xmm4, (%rsi)
  3977. repz retq
  3978. #ifndef __APPLE__
  3979. .size AES_GCM_ghash_block_aesni,.-AES_GCM_ghash_block_aesni
  3980. #endif /* __APPLE__ */
  3981. #ifndef __APPLE__
  3982. .text
  3983. .globl AES_GCM_encrypt_update_aesni
  3984. .type AES_GCM_encrypt_update_aesni,@function
  3985. .align 16
  3986. AES_GCM_encrypt_update_aesni:
  3987. #else
  3988. .section __TEXT,__text
  3989. .globl _AES_GCM_encrypt_update_aesni
  3990. .p2align 4
  3991. _AES_GCM_encrypt_update_aesni:
  3992. #endif /* __APPLE__ */
  3993. pushq %r13
  3994. pushq %r12
  3995. pushq %r14
  3996. movq %rdx, %r10
  3997. movq %rcx, %r11
  3998. movq 32(%rsp), %rax
  3999. movq 40(%rsp), %r12
  4000. subq $0xa0, %rsp
  4001. movdqa (%r9), %xmm6
  4002. movdqa (%rax), %xmm5
  4003. movdqa %xmm5, %xmm9
  4004. movdqa %xmm5, %xmm8
  4005. psrlq $63, %xmm9
  4006. psllq $0x01, %xmm8
  4007. pslldq $8, %xmm9
  4008. por %xmm9, %xmm8
  4009. pshufd $0xff, %xmm5, %xmm5
  4010. psrad $31, %xmm5
  4011. pand L_aes_gcm_mod2_128(%rip), %xmm5
  4012. pxor %xmm8, %xmm5
  4013. xorq %r14, %r14
  4014. cmpl $0x80, %r8d
  4015. movl %r8d, %r13d
  4016. jl L_AES_GCM_encrypt_update_aesni_done_128
  4017. andl $0xffffff80, %r13d
  4018. movdqa %xmm6, %xmm2
  4019. # H ^ 1
  4020. movdqa %xmm5, (%rsp)
  4021. # H ^ 2
  4022. pshufd $0x4e, %xmm5, %xmm9
  4023. pshufd $0x4e, %xmm5, %xmm10
  4024. movdqa %xmm5, %xmm11
  4025. movdqa %xmm5, %xmm8
  4026. pclmulqdq $0x11, %xmm5, %xmm11
  4027. pclmulqdq $0x00, %xmm5, %xmm8
  4028. pxor %xmm5, %xmm9
  4029. pxor %xmm5, %xmm10
  4030. pclmulqdq $0x00, %xmm10, %xmm9
  4031. pxor %xmm8, %xmm9
  4032. pxor %xmm11, %xmm9
  4033. movdqa %xmm9, %xmm10
  4034. movdqa %xmm11, %xmm0
  4035. pslldq $8, %xmm10
  4036. psrldq $8, %xmm9
  4037. pxor %xmm10, %xmm8
  4038. pxor %xmm9, %xmm0
  4039. movdqa %xmm8, %xmm12
  4040. movdqa %xmm8, %xmm13
  4041. movdqa %xmm8, %xmm14
  4042. pslld $31, %xmm12
  4043. pslld $30, %xmm13
  4044. pslld $25, %xmm14
  4045. pxor %xmm13, %xmm12
  4046. pxor %xmm14, %xmm12
  4047. movdqa %xmm12, %xmm13
  4048. psrldq $4, %xmm13
  4049. pslldq $12, %xmm12
  4050. pxor %xmm12, %xmm8
  4051. movdqa %xmm8, %xmm14
  4052. movdqa %xmm8, %xmm10
  4053. movdqa %xmm8, %xmm9
  4054. psrld $0x01, %xmm14
  4055. psrld $2, %xmm10
  4056. psrld $7, %xmm9
  4057. pxor %xmm10, %xmm14
  4058. pxor %xmm9, %xmm14
  4059. pxor %xmm13, %xmm14
  4060. pxor %xmm8, %xmm14
  4061. pxor %xmm14, %xmm0
  4062. movdqa %xmm0, 16(%rsp)
  4063. # H ^ 3
  4064. pshufd $0x4e, %xmm5, %xmm9
  4065. pshufd $0x4e, %xmm0, %xmm10
  4066. movdqa %xmm0, %xmm11
  4067. movdqa %xmm0, %xmm8
  4068. pclmulqdq $0x11, %xmm5, %xmm11
  4069. pclmulqdq $0x00, %xmm5, %xmm8
  4070. pxor %xmm5, %xmm9
  4071. pxor %xmm0, %xmm10
  4072. pclmulqdq $0x00, %xmm10, %xmm9
  4073. pxor %xmm8, %xmm9
  4074. pxor %xmm11, %xmm9
  4075. movdqa %xmm9, %xmm10
  4076. movdqa %xmm11, %xmm1
  4077. pslldq $8, %xmm10
  4078. psrldq $8, %xmm9
  4079. pxor %xmm10, %xmm8
  4080. pxor %xmm9, %xmm1
  4081. movdqa %xmm8, %xmm12
  4082. movdqa %xmm8, %xmm13
  4083. movdqa %xmm8, %xmm14
  4084. pslld $31, %xmm12
  4085. pslld $30, %xmm13
  4086. pslld $25, %xmm14
  4087. pxor %xmm13, %xmm12
  4088. pxor %xmm14, %xmm12
  4089. movdqa %xmm12, %xmm13
  4090. psrldq $4, %xmm13
  4091. pslldq $12, %xmm12
  4092. pxor %xmm12, %xmm8
  4093. movdqa %xmm8, %xmm14
  4094. movdqa %xmm8, %xmm10
  4095. movdqa %xmm8, %xmm9
  4096. psrld $0x01, %xmm14
  4097. psrld $2, %xmm10
  4098. psrld $7, %xmm9
  4099. pxor %xmm10, %xmm14
  4100. pxor %xmm9, %xmm14
  4101. pxor %xmm13, %xmm14
  4102. pxor %xmm8, %xmm14
  4103. pxor %xmm14, %xmm1
  4104. movdqa %xmm1, 32(%rsp)
  4105. # H ^ 4
  4106. pshufd $0x4e, %xmm0, %xmm9
  4107. pshufd $0x4e, %xmm0, %xmm10
  4108. movdqa %xmm0, %xmm11
  4109. movdqa %xmm0, %xmm8
  4110. pclmulqdq $0x11, %xmm0, %xmm11
  4111. pclmulqdq $0x00, %xmm0, %xmm8
  4112. pxor %xmm0, %xmm9
  4113. pxor %xmm0, %xmm10
  4114. pclmulqdq $0x00, %xmm10, %xmm9
  4115. pxor %xmm8, %xmm9
  4116. pxor %xmm11, %xmm9
  4117. movdqa %xmm9, %xmm10
  4118. movdqa %xmm11, %xmm3
  4119. pslldq $8, %xmm10
  4120. psrldq $8, %xmm9
  4121. pxor %xmm10, %xmm8
  4122. pxor %xmm9, %xmm3
  4123. movdqa %xmm8, %xmm12
  4124. movdqa %xmm8, %xmm13
  4125. movdqa %xmm8, %xmm14
  4126. pslld $31, %xmm12
  4127. pslld $30, %xmm13
  4128. pslld $25, %xmm14
  4129. pxor %xmm13, %xmm12
  4130. pxor %xmm14, %xmm12
  4131. movdqa %xmm12, %xmm13
  4132. psrldq $4, %xmm13
  4133. pslldq $12, %xmm12
  4134. pxor %xmm12, %xmm8
  4135. movdqa %xmm8, %xmm14
  4136. movdqa %xmm8, %xmm10
  4137. movdqa %xmm8, %xmm9
  4138. psrld $0x01, %xmm14
  4139. psrld $2, %xmm10
  4140. psrld $7, %xmm9
  4141. pxor %xmm10, %xmm14
  4142. pxor %xmm9, %xmm14
  4143. pxor %xmm13, %xmm14
  4144. pxor %xmm8, %xmm14
  4145. pxor %xmm14, %xmm3
  4146. movdqa %xmm3, 48(%rsp)
  4147. # H ^ 5
  4148. pshufd $0x4e, %xmm0, %xmm9
  4149. pshufd $0x4e, %xmm1, %xmm10
  4150. movdqa %xmm1, %xmm11
  4151. movdqa %xmm1, %xmm8
  4152. pclmulqdq $0x11, %xmm0, %xmm11
  4153. pclmulqdq $0x00, %xmm0, %xmm8
  4154. pxor %xmm0, %xmm9
  4155. pxor %xmm1, %xmm10
  4156. pclmulqdq $0x00, %xmm10, %xmm9
  4157. pxor %xmm8, %xmm9
  4158. pxor %xmm11, %xmm9
  4159. movdqa %xmm9, %xmm10
  4160. movdqa %xmm11, %xmm7
  4161. pslldq $8, %xmm10
  4162. psrldq $8, %xmm9
  4163. pxor %xmm10, %xmm8
  4164. pxor %xmm9, %xmm7
  4165. movdqa %xmm8, %xmm12
  4166. movdqa %xmm8, %xmm13
  4167. movdqa %xmm8, %xmm14
  4168. pslld $31, %xmm12
  4169. pslld $30, %xmm13
  4170. pslld $25, %xmm14
  4171. pxor %xmm13, %xmm12
  4172. pxor %xmm14, %xmm12
  4173. movdqa %xmm12, %xmm13
  4174. psrldq $4, %xmm13
  4175. pslldq $12, %xmm12
  4176. pxor %xmm12, %xmm8
  4177. movdqa %xmm8, %xmm14
  4178. movdqa %xmm8, %xmm10
  4179. movdqa %xmm8, %xmm9
  4180. psrld $0x01, %xmm14
  4181. psrld $2, %xmm10
  4182. psrld $7, %xmm9
  4183. pxor %xmm10, %xmm14
  4184. pxor %xmm9, %xmm14
  4185. pxor %xmm13, %xmm14
  4186. pxor %xmm8, %xmm14
  4187. pxor %xmm14, %xmm7
  4188. movdqa %xmm7, 64(%rsp)
  4189. # H ^ 6
  4190. pshufd $0x4e, %xmm1, %xmm9
  4191. pshufd $0x4e, %xmm1, %xmm10
  4192. movdqa %xmm1, %xmm11
  4193. movdqa %xmm1, %xmm8
  4194. pclmulqdq $0x11, %xmm1, %xmm11
  4195. pclmulqdq $0x00, %xmm1, %xmm8
  4196. pxor %xmm1, %xmm9
  4197. pxor %xmm1, %xmm10
  4198. pclmulqdq $0x00, %xmm10, %xmm9
  4199. pxor %xmm8, %xmm9
  4200. pxor %xmm11, %xmm9
  4201. movdqa %xmm9, %xmm10
  4202. movdqa %xmm11, %xmm7
  4203. pslldq $8, %xmm10
  4204. psrldq $8, %xmm9
  4205. pxor %xmm10, %xmm8
  4206. pxor %xmm9, %xmm7
  4207. movdqa %xmm8, %xmm12
  4208. movdqa %xmm8, %xmm13
  4209. movdqa %xmm8, %xmm14
  4210. pslld $31, %xmm12
  4211. pslld $30, %xmm13
  4212. pslld $25, %xmm14
  4213. pxor %xmm13, %xmm12
  4214. pxor %xmm14, %xmm12
  4215. movdqa %xmm12, %xmm13
  4216. psrldq $4, %xmm13
  4217. pslldq $12, %xmm12
  4218. pxor %xmm12, %xmm8
  4219. movdqa %xmm8, %xmm14
  4220. movdqa %xmm8, %xmm10
  4221. movdqa %xmm8, %xmm9
  4222. psrld $0x01, %xmm14
  4223. psrld $2, %xmm10
  4224. psrld $7, %xmm9
  4225. pxor %xmm10, %xmm14
  4226. pxor %xmm9, %xmm14
  4227. pxor %xmm13, %xmm14
  4228. pxor %xmm8, %xmm14
  4229. pxor %xmm14, %xmm7
  4230. movdqa %xmm7, 80(%rsp)
  4231. # H ^ 7
  4232. pshufd $0x4e, %xmm1, %xmm9
  4233. pshufd $0x4e, %xmm3, %xmm10
  4234. movdqa %xmm3, %xmm11
  4235. movdqa %xmm3, %xmm8
  4236. pclmulqdq $0x11, %xmm1, %xmm11
  4237. pclmulqdq $0x00, %xmm1, %xmm8
  4238. pxor %xmm1, %xmm9
  4239. pxor %xmm3, %xmm10
  4240. pclmulqdq $0x00, %xmm10, %xmm9
  4241. pxor %xmm8, %xmm9
  4242. pxor %xmm11, %xmm9
  4243. movdqa %xmm9, %xmm10
  4244. movdqa %xmm11, %xmm7
  4245. pslldq $8, %xmm10
  4246. psrldq $8, %xmm9
  4247. pxor %xmm10, %xmm8
  4248. pxor %xmm9, %xmm7
  4249. movdqa %xmm8, %xmm12
  4250. movdqa %xmm8, %xmm13
  4251. movdqa %xmm8, %xmm14
  4252. pslld $31, %xmm12
  4253. pslld $30, %xmm13
  4254. pslld $25, %xmm14
  4255. pxor %xmm13, %xmm12
  4256. pxor %xmm14, %xmm12
  4257. movdqa %xmm12, %xmm13
  4258. psrldq $4, %xmm13
  4259. pslldq $12, %xmm12
  4260. pxor %xmm12, %xmm8
  4261. movdqa %xmm8, %xmm14
  4262. movdqa %xmm8, %xmm10
  4263. movdqa %xmm8, %xmm9
  4264. psrld $0x01, %xmm14
  4265. psrld $2, %xmm10
  4266. psrld $7, %xmm9
  4267. pxor %xmm10, %xmm14
  4268. pxor %xmm9, %xmm14
  4269. pxor %xmm13, %xmm14
  4270. pxor %xmm8, %xmm14
  4271. pxor %xmm14, %xmm7
  4272. movdqa %xmm7, 96(%rsp)
  4273. # H ^ 8
  4274. pshufd $0x4e, %xmm3, %xmm9
  4275. pshufd $0x4e, %xmm3, %xmm10
  4276. movdqa %xmm3, %xmm11
  4277. movdqa %xmm3, %xmm8
  4278. pclmulqdq $0x11, %xmm3, %xmm11
  4279. pclmulqdq $0x00, %xmm3, %xmm8
  4280. pxor %xmm3, %xmm9
  4281. pxor %xmm3, %xmm10
  4282. pclmulqdq $0x00, %xmm10, %xmm9
  4283. pxor %xmm8, %xmm9
  4284. pxor %xmm11, %xmm9
  4285. movdqa %xmm9, %xmm10
  4286. movdqa %xmm11, %xmm7
  4287. pslldq $8, %xmm10
  4288. psrldq $8, %xmm9
  4289. pxor %xmm10, %xmm8
  4290. pxor %xmm9, %xmm7
  4291. movdqa %xmm8, %xmm12
  4292. movdqa %xmm8, %xmm13
  4293. movdqa %xmm8, %xmm14
  4294. pslld $31, %xmm12
  4295. pslld $30, %xmm13
  4296. pslld $25, %xmm14
  4297. pxor %xmm13, %xmm12
  4298. pxor %xmm14, %xmm12
  4299. movdqa %xmm12, %xmm13
  4300. psrldq $4, %xmm13
  4301. pslldq $12, %xmm12
  4302. pxor %xmm12, %xmm8
  4303. movdqa %xmm8, %xmm14
  4304. movdqa %xmm8, %xmm10
  4305. movdqa %xmm8, %xmm9
  4306. psrld $0x01, %xmm14
  4307. psrld $2, %xmm10
  4308. psrld $7, %xmm9
  4309. pxor %xmm10, %xmm14
  4310. pxor %xmm9, %xmm14
  4311. pxor %xmm13, %xmm14
  4312. pxor %xmm8, %xmm14
  4313. pxor %xmm14, %xmm7
  4314. movdqa %xmm7, 112(%rsp)
  4315. # First 128 bytes of input
  4316. movdqa (%r12), %xmm8
  4317. movdqa L_aes_gcm_bswap_epi64(%rip), %xmm1
  4318. movdqa %xmm8, %xmm0
  4319. pshufb %xmm1, %xmm8
  4320. movdqa %xmm0, %xmm9
  4321. paddd L_aes_gcm_one(%rip), %xmm9
  4322. pshufb %xmm1, %xmm9
  4323. movdqa %xmm0, %xmm10
  4324. paddd L_aes_gcm_two(%rip), %xmm10
  4325. pshufb %xmm1, %xmm10
  4326. movdqa %xmm0, %xmm11
  4327. paddd L_aes_gcm_three(%rip), %xmm11
  4328. pshufb %xmm1, %xmm11
  4329. movdqa %xmm0, %xmm12
  4330. paddd L_aes_gcm_four(%rip), %xmm12
  4331. pshufb %xmm1, %xmm12
  4332. movdqa %xmm0, %xmm13
  4333. paddd L_aes_gcm_five(%rip), %xmm13
  4334. pshufb %xmm1, %xmm13
  4335. movdqa %xmm0, %xmm14
  4336. paddd L_aes_gcm_six(%rip), %xmm14
  4337. pshufb %xmm1, %xmm14
  4338. movdqa %xmm0, %xmm15
  4339. paddd L_aes_gcm_seven(%rip), %xmm15
  4340. pshufb %xmm1, %xmm15
  4341. paddd L_aes_gcm_eight(%rip), %xmm0
  4342. movdqa (%rdi), %xmm7
  4343. movdqa %xmm0, (%r12)
  4344. pxor %xmm7, %xmm8
  4345. pxor %xmm7, %xmm9
  4346. pxor %xmm7, %xmm10
  4347. pxor %xmm7, %xmm11
  4348. pxor %xmm7, %xmm12
  4349. pxor %xmm7, %xmm13
  4350. pxor %xmm7, %xmm14
  4351. pxor %xmm7, %xmm15
  4352. movdqa 16(%rdi), %xmm7
  4353. aesenc %xmm7, %xmm8
  4354. aesenc %xmm7, %xmm9
  4355. aesenc %xmm7, %xmm10
  4356. aesenc %xmm7, %xmm11
  4357. aesenc %xmm7, %xmm12
  4358. aesenc %xmm7, %xmm13
  4359. aesenc %xmm7, %xmm14
  4360. aesenc %xmm7, %xmm15
  4361. movdqa 32(%rdi), %xmm7
  4362. aesenc %xmm7, %xmm8
  4363. aesenc %xmm7, %xmm9
  4364. aesenc %xmm7, %xmm10
  4365. aesenc %xmm7, %xmm11
  4366. aesenc %xmm7, %xmm12
  4367. aesenc %xmm7, %xmm13
  4368. aesenc %xmm7, %xmm14
  4369. aesenc %xmm7, %xmm15
  4370. movdqa 48(%rdi), %xmm7
  4371. aesenc %xmm7, %xmm8
  4372. aesenc %xmm7, %xmm9
  4373. aesenc %xmm7, %xmm10
  4374. aesenc %xmm7, %xmm11
  4375. aesenc %xmm7, %xmm12
  4376. aesenc %xmm7, %xmm13
  4377. aesenc %xmm7, %xmm14
  4378. aesenc %xmm7, %xmm15
  4379. movdqa 64(%rdi), %xmm7
  4380. aesenc %xmm7, %xmm8
  4381. aesenc %xmm7, %xmm9
  4382. aesenc %xmm7, %xmm10
  4383. aesenc %xmm7, %xmm11
  4384. aesenc %xmm7, %xmm12
  4385. aesenc %xmm7, %xmm13
  4386. aesenc %xmm7, %xmm14
  4387. aesenc %xmm7, %xmm15
  4388. movdqa 80(%rdi), %xmm7
  4389. aesenc %xmm7, %xmm8
  4390. aesenc %xmm7, %xmm9
  4391. aesenc %xmm7, %xmm10
  4392. aesenc %xmm7, %xmm11
  4393. aesenc %xmm7, %xmm12
  4394. aesenc %xmm7, %xmm13
  4395. aesenc %xmm7, %xmm14
  4396. aesenc %xmm7, %xmm15
  4397. movdqa 96(%rdi), %xmm7
  4398. aesenc %xmm7, %xmm8
  4399. aesenc %xmm7, %xmm9
  4400. aesenc %xmm7, %xmm10
  4401. aesenc %xmm7, %xmm11
  4402. aesenc %xmm7, %xmm12
  4403. aesenc %xmm7, %xmm13
  4404. aesenc %xmm7, %xmm14
  4405. aesenc %xmm7, %xmm15
  4406. movdqa 112(%rdi), %xmm7
  4407. aesenc %xmm7, %xmm8
  4408. aesenc %xmm7, %xmm9
  4409. aesenc %xmm7, %xmm10
  4410. aesenc %xmm7, %xmm11
  4411. aesenc %xmm7, %xmm12
  4412. aesenc %xmm7, %xmm13
  4413. aesenc %xmm7, %xmm14
  4414. aesenc %xmm7, %xmm15
  4415. movdqa 128(%rdi), %xmm7
  4416. aesenc %xmm7, %xmm8
  4417. aesenc %xmm7, %xmm9
  4418. aesenc %xmm7, %xmm10
  4419. aesenc %xmm7, %xmm11
  4420. aesenc %xmm7, %xmm12
  4421. aesenc %xmm7, %xmm13
  4422. aesenc %xmm7, %xmm14
  4423. aesenc %xmm7, %xmm15
  4424. movdqa 144(%rdi), %xmm7
  4425. aesenc %xmm7, %xmm8
  4426. aesenc %xmm7, %xmm9
  4427. aesenc %xmm7, %xmm10
  4428. aesenc %xmm7, %xmm11
  4429. aesenc %xmm7, %xmm12
  4430. aesenc %xmm7, %xmm13
  4431. aesenc %xmm7, %xmm14
  4432. aesenc %xmm7, %xmm15
  4433. cmpl $11, %esi
  4434. movdqa 160(%rdi), %xmm7
  4435. jl L_AES_GCM_encrypt_update_aesni_enc_done
  4436. aesenc %xmm7, %xmm8
  4437. aesenc %xmm7, %xmm9
  4438. aesenc %xmm7, %xmm10
  4439. aesenc %xmm7, %xmm11
  4440. aesenc %xmm7, %xmm12
  4441. aesenc %xmm7, %xmm13
  4442. aesenc %xmm7, %xmm14
  4443. aesenc %xmm7, %xmm15
  4444. movdqa 176(%rdi), %xmm7
  4445. aesenc %xmm7, %xmm8
  4446. aesenc %xmm7, %xmm9
  4447. aesenc %xmm7, %xmm10
  4448. aesenc %xmm7, %xmm11
  4449. aesenc %xmm7, %xmm12
  4450. aesenc %xmm7, %xmm13
  4451. aesenc %xmm7, %xmm14
  4452. aesenc %xmm7, %xmm15
  4453. cmpl $13, %esi
  4454. movdqa 192(%rdi), %xmm7
  4455. jl L_AES_GCM_encrypt_update_aesni_enc_done
  4456. aesenc %xmm7, %xmm8
  4457. aesenc %xmm7, %xmm9
  4458. aesenc %xmm7, %xmm10
  4459. aesenc %xmm7, %xmm11
  4460. aesenc %xmm7, %xmm12
  4461. aesenc %xmm7, %xmm13
  4462. aesenc %xmm7, %xmm14
  4463. aesenc %xmm7, %xmm15
  4464. movdqa 208(%rdi), %xmm7
  4465. aesenc %xmm7, %xmm8
  4466. aesenc %xmm7, %xmm9
  4467. aesenc %xmm7, %xmm10
  4468. aesenc %xmm7, %xmm11
  4469. aesenc %xmm7, %xmm12
  4470. aesenc %xmm7, %xmm13
  4471. aesenc %xmm7, %xmm14
  4472. aesenc %xmm7, %xmm15
  4473. movdqa 224(%rdi), %xmm7
  4474. L_AES_GCM_encrypt_update_aesni_enc_done:
  4475. aesenclast %xmm7, %xmm8
  4476. aesenclast %xmm7, %xmm9
  4477. movdqu (%r11), %xmm0
  4478. movdqu 16(%r11), %xmm1
  4479. pxor %xmm0, %xmm8
  4480. pxor %xmm1, %xmm9
  4481. movdqu %xmm8, (%r10)
  4482. movdqu %xmm9, 16(%r10)
  4483. aesenclast %xmm7, %xmm10
  4484. aesenclast %xmm7, %xmm11
  4485. movdqu 32(%r11), %xmm0
  4486. movdqu 48(%r11), %xmm1
  4487. pxor %xmm0, %xmm10
  4488. pxor %xmm1, %xmm11
  4489. movdqu %xmm10, 32(%r10)
  4490. movdqu %xmm11, 48(%r10)
  4491. aesenclast %xmm7, %xmm12
  4492. aesenclast %xmm7, %xmm13
  4493. movdqu 64(%r11), %xmm0
  4494. movdqu 80(%r11), %xmm1
  4495. pxor %xmm0, %xmm12
  4496. pxor %xmm1, %xmm13
  4497. movdqu %xmm12, 64(%r10)
  4498. movdqu %xmm13, 80(%r10)
  4499. aesenclast %xmm7, %xmm14
  4500. aesenclast %xmm7, %xmm15
  4501. movdqu 96(%r11), %xmm0
  4502. movdqu 112(%r11), %xmm1
  4503. pxor %xmm0, %xmm14
  4504. pxor %xmm1, %xmm15
  4505. movdqu %xmm14, 96(%r10)
  4506. movdqu %xmm15, 112(%r10)
  4507. cmpl $0x80, %r13d
  4508. movl $0x80, %r14d
  4509. jle L_AES_GCM_encrypt_update_aesni_end_128
  4510. # More 128 bytes of input
  4511. L_AES_GCM_encrypt_update_aesni_ghash_128:
  4512. leaq (%r11,%r14,1), %rcx
  4513. leaq (%r10,%r14,1), %rdx
  4514. movdqa (%r12), %xmm8
  4515. movdqa L_aes_gcm_bswap_epi64(%rip), %xmm1
  4516. movdqa %xmm8, %xmm0
  4517. pshufb %xmm1, %xmm8
  4518. movdqa %xmm0, %xmm9
  4519. paddd L_aes_gcm_one(%rip), %xmm9
  4520. pshufb %xmm1, %xmm9
  4521. movdqa %xmm0, %xmm10
  4522. paddd L_aes_gcm_two(%rip), %xmm10
  4523. pshufb %xmm1, %xmm10
  4524. movdqa %xmm0, %xmm11
  4525. paddd L_aes_gcm_three(%rip), %xmm11
  4526. pshufb %xmm1, %xmm11
  4527. movdqa %xmm0, %xmm12
  4528. paddd L_aes_gcm_four(%rip), %xmm12
  4529. pshufb %xmm1, %xmm12
  4530. movdqa %xmm0, %xmm13
  4531. paddd L_aes_gcm_five(%rip), %xmm13
  4532. pshufb %xmm1, %xmm13
  4533. movdqa %xmm0, %xmm14
  4534. paddd L_aes_gcm_six(%rip), %xmm14
  4535. pshufb %xmm1, %xmm14
  4536. movdqa %xmm0, %xmm15
  4537. paddd L_aes_gcm_seven(%rip), %xmm15
  4538. pshufb %xmm1, %xmm15
  4539. paddd L_aes_gcm_eight(%rip), %xmm0
  4540. movdqa (%rdi), %xmm7
  4541. movdqa %xmm0, (%r12)
  4542. pxor %xmm7, %xmm8
  4543. pxor %xmm7, %xmm9
  4544. pxor %xmm7, %xmm10
  4545. pxor %xmm7, %xmm11
  4546. pxor %xmm7, %xmm12
  4547. pxor %xmm7, %xmm13
  4548. pxor %xmm7, %xmm14
  4549. pxor %xmm7, %xmm15
  4550. movdqa 112(%rsp), %xmm7
  4551. movdqu -128(%rdx), %xmm0
  4552. aesenc 16(%rdi), %xmm8
  4553. pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
  4554. pxor %xmm2, %xmm0
  4555. pshufd $0x4e, %xmm7, %xmm1
  4556. pshufd $0x4e, %xmm0, %xmm5
  4557. pxor %xmm7, %xmm1
  4558. pxor %xmm0, %xmm5
  4559. movdqa %xmm0, %xmm3
  4560. pclmulqdq $0x11, %xmm7, %xmm3
  4561. aesenc 16(%rdi), %xmm9
  4562. aesenc 16(%rdi), %xmm10
  4563. movdqa %xmm0, %xmm2
  4564. pclmulqdq $0x00, %xmm7, %xmm2
  4565. aesenc 16(%rdi), %xmm11
  4566. aesenc 16(%rdi), %xmm12
  4567. pclmulqdq $0x00, %xmm5, %xmm1
  4568. aesenc 16(%rdi), %xmm13
  4569. aesenc 16(%rdi), %xmm14
  4570. aesenc 16(%rdi), %xmm15
  4571. pxor %xmm2, %xmm1
  4572. pxor %xmm3, %xmm1
  4573. movdqa 96(%rsp), %xmm7
  4574. movdqu -112(%rdx), %xmm0
  4575. pshufd $0x4e, %xmm7, %xmm4
  4576. pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
  4577. aesenc 32(%rdi), %xmm8
  4578. pxor %xmm7, %xmm4
  4579. pshufd $0x4e, %xmm0, %xmm5
  4580. pxor %xmm0, %xmm5
  4581. movdqa %xmm0, %xmm6
  4582. pclmulqdq $0x11, %xmm7, %xmm6
  4583. aesenc 32(%rdi), %xmm9
  4584. aesenc 32(%rdi), %xmm10
  4585. pclmulqdq $0x00, %xmm0, %xmm7
  4586. aesenc 32(%rdi), %xmm11
  4587. aesenc 32(%rdi), %xmm12
  4588. pclmulqdq $0x00, %xmm5, %xmm4
  4589. aesenc 32(%rdi), %xmm13
  4590. aesenc 32(%rdi), %xmm14
  4591. aesenc 32(%rdi), %xmm15
  4592. pxor %xmm7, %xmm1
  4593. pxor %xmm7, %xmm2
  4594. pxor %xmm6, %xmm1
  4595. pxor %xmm6, %xmm3
  4596. pxor %xmm4, %xmm1
  4597. movdqa 80(%rsp), %xmm7
  4598. movdqu -96(%rdx), %xmm0
  4599. pshufd $0x4e, %xmm7, %xmm4
  4600. pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
  4601. aesenc 48(%rdi), %xmm8
  4602. pxor %xmm7, %xmm4
  4603. pshufd $0x4e, %xmm0, %xmm5
  4604. pxor %xmm0, %xmm5
  4605. movdqa %xmm0, %xmm6
  4606. pclmulqdq $0x11, %xmm7, %xmm6
  4607. aesenc 48(%rdi), %xmm9
  4608. aesenc 48(%rdi), %xmm10
  4609. pclmulqdq $0x00, %xmm0, %xmm7
  4610. aesenc 48(%rdi), %xmm11
  4611. aesenc 48(%rdi), %xmm12
  4612. pclmulqdq $0x00, %xmm5, %xmm4
  4613. aesenc 48(%rdi), %xmm13
  4614. aesenc 48(%rdi), %xmm14
  4615. aesenc 48(%rdi), %xmm15
  4616. pxor %xmm7, %xmm1
  4617. pxor %xmm7, %xmm2
  4618. pxor %xmm6, %xmm1
  4619. pxor %xmm6, %xmm3
  4620. pxor %xmm4, %xmm1
  4621. movdqa 64(%rsp), %xmm7
  4622. movdqu -80(%rdx), %xmm0
  4623. pshufd $0x4e, %xmm7, %xmm4
  4624. pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
  4625. aesenc 64(%rdi), %xmm8
  4626. pxor %xmm7, %xmm4
  4627. pshufd $0x4e, %xmm0, %xmm5
  4628. pxor %xmm0, %xmm5
  4629. movdqa %xmm0, %xmm6
  4630. pclmulqdq $0x11, %xmm7, %xmm6
  4631. aesenc 64(%rdi), %xmm9
  4632. aesenc 64(%rdi), %xmm10
  4633. pclmulqdq $0x00, %xmm0, %xmm7
  4634. aesenc 64(%rdi), %xmm11
  4635. aesenc 64(%rdi), %xmm12
  4636. pclmulqdq $0x00, %xmm5, %xmm4
  4637. aesenc 64(%rdi), %xmm13
  4638. aesenc 64(%rdi), %xmm14
  4639. aesenc 64(%rdi), %xmm15
  4640. pxor %xmm7, %xmm1
  4641. pxor %xmm7, %xmm2
  4642. pxor %xmm6, %xmm1
  4643. pxor %xmm6, %xmm3
  4644. pxor %xmm4, %xmm1
  4645. movdqa 48(%rsp), %xmm7
  4646. movdqu -64(%rdx), %xmm0
  4647. pshufd $0x4e, %xmm7, %xmm4
  4648. pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
  4649. aesenc 80(%rdi), %xmm8
  4650. pxor %xmm7, %xmm4
  4651. pshufd $0x4e, %xmm0, %xmm5
  4652. pxor %xmm0, %xmm5
  4653. movdqa %xmm0, %xmm6
  4654. pclmulqdq $0x11, %xmm7, %xmm6
  4655. aesenc 80(%rdi), %xmm9
  4656. aesenc 80(%rdi), %xmm10
  4657. pclmulqdq $0x00, %xmm0, %xmm7
  4658. aesenc 80(%rdi), %xmm11
  4659. aesenc 80(%rdi), %xmm12
  4660. pclmulqdq $0x00, %xmm5, %xmm4
  4661. aesenc 80(%rdi), %xmm13
  4662. aesenc 80(%rdi), %xmm14
  4663. aesenc 80(%rdi), %xmm15
  4664. pxor %xmm7, %xmm1
  4665. pxor %xmm7, %xmm2
  4666. pxor %xmm6, %xmm1
  4667. pxor %xmm6, %xmm3
  4668. pxor %xmm4, %xmm1
  4669. movdqa 32(%rsp), %xmm7
  4670. movdqu -48(%rdx), %xmm0
  4671. pshufd $0x4e, %xmm7, %xmm4
  4672. pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
  4673. aesenc 96(%rdi), %xmm8
  4674. pxor %xmm7, %xmm4
  4675. pshufd $0x4e, %xmm0, %xmm5
  4676. pxor %xmm0, %xmm5
  4677. movdqa %xmm0, %xmm6
  4678. pclmulqdq $0x11, %xmm7, %xmm6
  4679. aesenc 96(%rdi), %xmm9
  4680. aesenc 96(%rdi), %xmm10
  4681. pclmulqdq $0x00, %xmm0, %xmm7
  4682. aesenc 96(%rdi), %xmm11
  4683. aesenc 96(%rdi), %xmm12
  4684. pclmulqdq $0x00, %xmm5, %xmm4
  4685. aesenc 96(%rdi), %xmm13
  4686. aesenc 96(%rdi), %xmm14
  4687. aesenc 96(%rdi), %xmm15
  4688. pxor %xmm7, %xmm1
  4689. pxor %xmm7, %xmm2
  4690. pxor %xmm6, %xmm1
  4691. pxor %xmm6, %xmm3
  4692. pxor %xmm4, %xmm1
  4693. movdqa 16(%rsp), %xmm7
  4694. movdqu -32(%rdx), %xmm0
  4695. pshufd $0x4e, %xmm7, %xmm4
  4696. pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
  4697. aesenc 112(%rdi), %xmm8
  4698. pxor %xmm7, %xmm4
  4699. pshufd $0x4e, %xmm0, %xmm5
  4700. pxor %xmm0, %xmm5
  4701. movdqa %xmm0, %xmm6
  4702. pclmulqdq $0x11, %xmm7, %xmm6
  4703. aesenc 112(%rdi), %xmm9
  4704. aesenc 112(%rdi), %xmm10
  4705. pclmulqdq $0x00, %xmm0, %xmm7
  4706. aesenc 112(%rdi), %xmm11
  4707. aesenc 112(%rdi), %xmm12
  4708. pclmulqdq $0x00, %xmm5, %xmm4
  4709. aesenc 112(%rdi), %xmm13
  4710. aesenc 112(%rdi), %xmm14
  4711. aesenc 112(%rdi), %xmm15
  4712. pxor %xmm7, %xmm1
  4713. pxor %xmm7, %xmm2
  4714. pxor %xmm6, %xmm1
  4715. pxor %xmm6, %xmm3
  4716. pxor %xmm4, %xmm1
  4717. movdqa (%rsp), %xmm7
  4718. movdqu -16(%rdx), %xmm0
  4719. pshufd $0x4e, %xmm7, %xmm4
  4720. pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
  4721. aesenc 128(%rdi), %xmm8
  4722. pxor %xmm7, %xmm4
  4723. pshufd $0x4e, %xmm0, %xmm5
  4724. pxor %xmm0, %xmm5
  4725. movdqa %xmm0, %xmm6
  4726. pclmulqdq $0x11, %xmm7, %xmm6
  4727. aesenc 128(%rdi), %xmm9
  4728. aesenc 128(%rdi), %xmm10
  4729. pclmulqdq $0x00, %xmm0, %xmm7
  4730. aesenc 128(%rdi), %xmm11
  4731. aesenc 128(%rdi), %xmm12
  4732. pclmulqdq $0x00, %xmm5, %xmm4
  4733. aesenc 128(%rdi), %xmm13
  4734. aesenc 128(%rdi), %xmm14
  4735. aesenc 128(%rdi), %xmm15
  4736. pxor %xmm7, %xmm1
  4737. pxor %xmm7, %xmm2
  4738. pxor %xmm6, %xmm1
  4739. pxor %xmm6, %xmm3
  4740. pxor %xmm4, %xmm1
  4741. movdqa %xmm1, %xmm5
  4742. psrldq $8, %xmm1
  4743. pslldq $8, %xmm5
  4744. aesenc 144(%rdi), %xmm8
  4745. pxor %xmm5, %xmm2
  4746. pxor %xmm1, %xmm3
  4747. movdqa %xmm2, %xmm7
  4748. movdqa %xmm2, %xmm4
  4749. movdqa %xmm2, %xmm5
  4750. aesenc 144(%rdi), %xmm9
  4751. pslld $31, %xmm7
  4752. pslld $30, %xmm4
  4753. pslld $25, %xmm5
  4754. aesenc 144(%rdi), %xmm10
  4755. pxor %xmm4, %xmm7
  4756. pxor %xmm5, %xmm7
  4757. aesenc 144(%rdi), %xmm11
  4758. movdqa %xmm7, %xmm4
  4759. pslldq $12, %xmm7
  4760. psrldq $4, %xmm4
  4761. aesenc 144(%rdi), %xmm12
  4762. pxor %xmm7, %xmm2
  4763. movdqa %xmm2, %xmm5
  4764. movdqa %xmm2, %xmm1
  4765. movdqa %xmm2, %xmm0
  4766. aesenc 144(%rdi), %xmm13
  4767. psrld $0x01, %xmm5
  4768. psrld $2, %xmm1
  4769. psrld $7, %xmm0
  4770. aesenc 144(%rdi), %xmm14
  4771. pxor %xmm1, %xmm5
  4772. pxor %xmm0, %xmm5
  4773. aesenc 144(%rdi), %xmm15
  4774. pxor %xmm4, %xmm5
  4775. pxor %xmm5, %xmm2
  4776. pxor %xmm3, %xmm2
  4777. cmpl $11, %esi
  4778. movdqa 160(%rdi), %xmm7
  4779. jl L_AES_GCM_encrypt_update_aesni_aesenc_128_ghash_avx_done
  4780. aesenc %xmm7, %xmm8
  4781. aesenc %xmm7, %xmm9
  4782. aesenc %xmm7, %xmm10
  4783. aesenc %xmm7, %xmm11
  4784. aesenc %xmm7, %xmm12
  4785. aesenc %xmm7, %xmm13
  4786. aesenc %xmm7, %xmm14
  4787. aesenc %xmm7, %xmm15
  4788. movdqa 176(%rdi), %xmm7
  4789. aesenc %xmm7, %xmm8
  4790. aesenc %xmm7, %xmm9
  4791. aesenc %xmm7, %xmm10
  4792. aesenc %xmm7, %xmm11
  4793. aesenc %xmm7, %xmm12
  4794. aesenc %xmm7, %xmm13
  4795. aesenc %xmm7, %xmm14
  4796. aesenc %xmm7, %xmm15
  4797. cmpl $13, %esi
  4798. movdqa 192(%rdi), %xmm7
  4799. jl L_AES_GCM_encrypt_update_aesni_aesenc_128_ghash_avx_done
  4800. aesenc %xmm7, %xmm8
  4801. aesenc %xmm7, %xmm9
  4802. aesenc %xmm7, %xmm10
  4803. aesenc %xmm7, %xmm11
  4804. aesenc %xmm7, %xmm12
  4805. aesenc %xmm7, %xmm13
  4806. aesenc %xmm7, %xmm14
  4807. aesenc %xmm7, %xmm15
  4808. movdqa 208(%rdi), %xmm7
  4809. aesenc %xmm7, %xmm8
  4810. aesenc %xmm7, %xmm9
  4811. aesenc %xmm7, %xmm10
  4812. aesenc %xmm7, %xmm11
  4813. aesenc %xmm7, %xmm12
  4814. aesenc %xmm7, %xmm13
  4815. aesenc %xmm7, %xmm14
  4816. aesenc %xmm7, %xmm15
  4817. movdqa 224(%rdi), %xmm7
  4818. L_AES_GCM_encrypt_update_aesni_aesenc_128_ghash_avx_done:
  4819. aesenclast %xmm7, %xmm8
  4820. aesenclast %xmm7, %xmm9
  4821. movdqu (%rcx), %xmm0
  4822. movdqu 16(%rcx), %xmm1
  4823. pxor %xmm0, %xmm8
  4824. pxor %xmm1, %xmm9
  4825. movdqu %xmm8, (%rdx)
  4826. movdqu %xmm9, 16(%rdx)
  4827. aesenclast %xmm7, %xmm10
  4828. aesenclast %xmm7, %xmm11
  4829. movdqu 32(%rcx), %xmm0
  4830. movdqu 48(%rcx), %xmm1
  4831. pxor %xmm0, %xmm10
  4832. pxor %xmm1, %xmm11
  4833. movdqu %xmm10, 32(%rdx)
  4834. movdqu %xmm11, 48(%rdx)
  4835. aesenclast %xmm7, %xmm12
  4836. aesenclast %xmm7, %xmm13
  4837. movdqu 64(%rcx), %xmm0
  4838. movdqu 80(%rcx), %xmm1
  4839. pxor %xmm0, %xmm12
  4840. pxor %xmm1, %xmm13
  4841. movdqu %xmm12, 64(%rdx)
  4842. movdqu %xmm13, 80(%rdx)
  4843. aesenclast %xmm7, %xmm14
  4844. aesenclast %xmm7, %xmm15
  4845. movdqu 96(%rcx), %xmm0
  4846. movdqu 112(%rcx), %xmm1
  4847. pxor %xmm0, %xmm14
  4848. pxor %xmm1, %xmm15
  4849. movdqu %xmm14, 96(%rdx)
  4850. movdqu %xmm15, 112(%rdx)
  4851. addl $0x80, %r14d
  4852. cmpl %r13d, %r14d
  4853. jl L_AES_GCM_encrypt_update_aesni_ghash_128
  4854. L_AES_GCM_encrypt_update_aesni_end_128:
  4855. movdqa L_aes_gcm_bswap_mask(%rip), %xmm4
  4856. pshufb %xmm4, %xmm8
  4857. pshufb %xmm4, %xmm9
  4858. pshufb %xmm4, %xmm10
  4859. pshufb %xmm4, %xmm11
  4860. pxor %xmm2, %xmm8
  4861. pshufb %xmm4, %xmm12
  4862. pshufb %xmm4, %xmm13
  4863. pshufb %xmm4, %xmm14
  4864. pshufb %xmm4, %xmm15
  4865. movdqa 112(%rsp), %xmm7
  4866. pshufd $0x4e, %xmm8, %xmm1
  4867. pshufd $0x4e, %xmm7, %xmm2
  4868. movdqa %xmm7, %xmm3
  4869. movdqa %xmm7, %xmm0
  4870. pclmulqdq $0x11, %xmm8, %xmm3
  4871. pclmulqdq $0x00, %xmm8, %xmm0
  4872. pxor %xmm8, %xmm1
  4873. pxor %xmm7, %xmm2
  4874. pclmulqdq $0x00, %xmm2, %xmm1
  4875. pxor %xmm0, %xmm1
  4876. pxor %xmm3, %xmm1
  4877. movdqa %xmm1, %xmm2
  4878. movdqa %xmm0, %xmm4
  4879. movdqa %xmm3, %xmm6
  4880. pslldq $8, %xmm2
  4881. psrldq $8, %xmm1
  4882. pxor %xmm2, %xmm4
  4883. pxor %xmm1, %xmm6
  4884. movdqa 96(%rsp), %xmm7
  4885. pshufd $0x4e, %xmm9, %xmm1
  4886. pshufd $0x4e, %xmm7, %xmm2
  4887. movdqa %xmm7, %xmm3
  4888. movdqa %xmm7, %xmm0
  4889. pclmulqdq $0x11, %xmm9, %xmm3
  4890. pclmulqdq $0x00, %xmm9, %xmm0
  4891. pxor %xmm9, %xmm1
  4892. pxor %xmm7, %xmm2
  4893. pclmulqdq $0x00, %xmm2, %xmm1
  4894. pxor %xmm0, %xmm1
  4895. pxor %xmm3, %xmm1
  4896. movdqa %xmm1, %xmm2
  4897. pxor %xmm0, %xmm4
  4898. pxor %xmm3, %xmm6
  4899. pslldq $8, %xmm2
  4900. psrldq $8, %xmm1
  4901. pxor %xmm2, %xmm4
  4902. pxor %xmm1, %xmm6
  4903. movdqa 80(%rsp), %xmm7
  4904. pshufd $0x4e, %xmm10, %xmm1
  4905. pshufd $0x4e, %xmm7, %xmm2
  4906. movdqa %xmm7, %xmm3
  4907. movdqa %xmm7, %xmm0
  4908. pclmulqdq $0x11, %xmm10, %xmm3
  4909. pclmulqdq $0x00, %xmm10, %xmm0
  4910. pxor %xmm10, %xmm1
  4911. pxor %xmm7, %xmm2
  4912. pclmulqdq $0x00, %xmm2, %xmm1
  4913. pxor %xmm0, %xmm1
  4914. pxor %xmm3, %xmm1
  4915. movdqa %xmm1, %xmm2
  4916. pxor %xmm0, %xmm4
  4917. pxor %xmm3, %xmm6
  4918. pslldq $8, %xmm2
  4919. psrldq $8, %xmm1
  4920. pxor %xmm2, %xmm4
  4921. pxor %xmm1, %xmm6
  4922. movdqa 64(%rsp), %xmm7
  4923. pshufd $0x4e, %xmm11, %xmm1
  4924. pshufd $0x4e, %xmm7, %xmm2
  4925. movdqa %xmm7, %xmm3
  4926. movdqa %xmm7, %xmm0
  4927. pclmulqdq $0x11, %xmm11, %xmm3
  4928. pclmulqdq $0x00, %xmm11, %xmm0
  4929. pxor %xmm11, %xmm1
  4930. pxor %xmm7, %xmm2
  4931. pclmulqdq $0x00, %xmm2, %xmm1
  4932. pxor %xmm0, %xmm1
  4933. pxor %xmm3, %xmm1
  4934. movdqa %xmm1, %xmm2
  4935. pxor %xmm0, %xmm4
  4936. pxor %xmm3, %xmm6
  4937. pslldq $8, %xmm2
  4938. psrldq $8, %xmm1
  4939. pxor %xmm2, %xmm4
  4940. pxor %xmm1, %xmm6
  4941. movdqa 48(%rsp), %xmm7
  4942. pshufd $0x4e, %xmm12, %xmm1
  4943. pshufd $0x4e, %xmm7, %xmm2
  4944. movdqa %xmm7, %xmm3
  4945. movdqa %xmm7, %xmm0
  4946. pclmulqdq $0x11, %xmm12, %xmm3
  4947. pclmulqdq $0x00, %xmm12, %xmm0
  4948. pxor %xmm12, %xmm1
  4949. pxor %xmm7, %xmm2
  4950. pclmulqdq $0x00, %xmm2, %xmm1
  4951. pxor %xmm0, %xmm1
  4952. pxor %xmm3, %xmm1
  4953. movdqa %xmm1, %xmm2
  4954. pxor %xmm0, %xmm4
  4955. pxor %xmm3, %xmm6
  4956. pslldq $8, %xmm2
  4957. psrldq $8, %xmm1
  4958. pxor %xmm2, %xmm4
  4959. pxor %xmm1, %xmm6
  4960. movdqa 32(%rsp), %xmm7
  4961. pshufd $0x4e, %xmm13, %xmm1
  4962. pshufd $0x4e, %xmm7, %xmm2
  4963. movdqa %xmm7, %xmm3
  4964. movdqa %xmm7, %xmm0
  4965. pclmulqdq $0x11, %xmm13, %xmm3
  4966. pclmulqdq $0x00, %xmm13, %xmm0
  4967. pxor %xmm13, %xmm1
  4968. pxor %xmm7, %xmm2
  4969. pclmulqdq $0x00, %xmm2, %xmm1
  4970. pxor %xmm0, %xmm1
  4971. pxor %xmm3, %xmm1
  4972. movdqa %xmm1, %xmm2
  4973. pxor %xmm0, %xmm4
  4974. pxor %xmm3, %xmm6
  4975. pslldq $8, %xmm2
  4976. psrldq $8, %xmm1
  4977. pxor %xmm2, %xmm4
  4978. pxor %xmm1, %xmm6
  4979. movdqa 16(%rsp), %xmm7
  4980. pshufd $0x4e, %xmm14, %xmm1
  4981. pshufd $0x4e, %xmm7, %xmm2
  4982. movdqa %xmm7, %xmm3
  4983. movdqa %xmm7, %xmm0
  4984. pclmulqdq $0x11, %xmm14, %xmm3
  4985. pclmulqdq $0x00, %xmm14, %xmm0
  4986. pxor %xmm14, %xmm1
  4987. pxor %xmm7, %xmm2
  4988. pclmulqdq $0x00, %xmm2, %xmm1
  4989. pxor %xmm0, %xmm1
  4990. pxor %xmm3, %xmm1
  4991. movdqa %xmm1, %xmm2
  4992. pxor %xmm0, %xmm4
  4993. pxor %xmm3, %xmm6
  4994. pslldq $8, %xmm2
  4995. psrldq $8, %xmm1
  4996. pxor %xmm2, %xmm4
  4997. pxor %xmm1, %xmm6
  4998. movdqa (%rsp), %xmm7
  4999. pshufd $0x4e, %xmm15, %xmm1
  5000. pshufd $0x4e, %xmm7, %xmm2
  5001. movdqa %xmm7, %xmm3
  5002. movdqa %xmm7, %xmm0
  5003. pclmulqdq $0x11, %xmm15, %xmm3
  5004. pclmulqdq $0x00, %xmm15, %xmm0
  5005. pxor %xmm15, %xmm1
  5006. pxor %xmm7, %xmm2
  5007. pclmulqdq $0x00, %xmm2, %xmm1
  5008. pxor %xmm0, %xmm1
  5009. pxor %xmm3, %xmm1
  5010. movdqa %xmm1, %xmm2
  5011. pxor %xmm0, %xmm4
  5012. pxor %xmm3, %xmm6
  5013. pslldq $8, %xmm2
  5014. psrldq $8, %xmm1
  5015. pxor %xmm2, %xmm4
  5016. pxor %xmm1, %xmm6
  5017. movdqa %xmm4, %xmm0
  5018. movdqa %xmm4, %xmm1
  5019. movdqa %xmm4, %xmm2
  5020. pslld $31, %xmm0
  5021. pslld $30, %xmm1
  5022. pslld $25, %xmm2
  5023. pxor %xmm1, %xmm0
  5024. pxor %xmm2, %xmm0
  5025. movdqa %xmm0, %xmm1
  5026. psrldq $4, %xmm1
  5027. pslldq $12, %xmm0
  5028. pxor %xmm0, %xmm4
  5029. movdqa %xmm4, %xmm2
  5030. movdqa %xmm4, %xmm3
  5031. movdqa %xmm4, %xmm0
  5032. psrld $0x01, %xmm2
  5033. psrld $2, %xmm3
  5034. psrld $7, %xmm0
  5035. pxor %xmm3, %xmm2
  5036. pxor %xmm0, %xmm2
  5037. pxor %xmm1, %xmm2
  5038. pxor %xmm4, %xmm2
  5039. pxor %xmm2, %xmm6
  5040. movdqa (%rsp), %xmm5
  5041. L_AES_GCM_encrypt_update_aesni_done_128:
  5042. movl %r8d, %edx
  5043. cmpl %edx, %r14d
  5044. jge L_AES_GCM_encrypt_update_aesni_done_enc
  5045. movl %r8d, %r13d
  5046. andl $0xfffffff0, %r13d
  5047. cmpl %r13d, %r14d
  5048. jge L_AES_GCM_encrypt_update_aesni_last_block_done
  5049. leaq (%r11,%r14,1), %rcx
  5050. leaq (%r10,%r14,1), %rdx
  5051. movdqa (%r12), %xmm8
  5052. movdqa %xmm8, %xmm9
  5053. pshufb L_aes_gcm_bswap_epi64(%rip), %xmm8
  5054. paddd L_aes_gcm_one(%rip), %xmm9
  5055. pxor (%rdi), %xmm8
  5056. movdqa %xmm9, (%r12)
  5057. aesenc 16(%rdi), %xmm8
  5058. aesenc 32(%rdi), %xmm8
  5059. aesenc 48(%rdi), %xmm8
  5060. aesenc 64(%rdi), %xmm8
  5061. aesenc 80(%rdi), %xmm8
  5062. aesenc 96(%rdi), %xmm8
  5063. aesenc 112(%rdi), %xmm8
  5064. aesenc 128(%rdi), %xmm8
  5065. aesenc 144(%rdi), %xmm8
  5066. cmpl $11, %esi
  5067. movdqa 160(%rdi), %xmm9
  5068. jl L_AES_GCM_encrypt_update_aesni_aesenc_block_aesenc_avx_last
  5069. aesenc %xmm9, %xmm8
  5070. aesenc 176(%rdi), %xmm8
  5071. cmpl $13, %esi
  5072. movdqa 192(%rdi), %xmm9
  5073. jl L_AES_GCM_encrypt_update_aesni_aesenc_block_aesenc_avx_last
  5074. aesenc %xmm9, %xmm8
  5075. aesenc 208(%rdi), %xmm8
  5076. movdqa 224(%rdi), %xmm9
  5077. L_AES_GCM_encrypt_update_aesni_aesenc_block_aesenc_avx_last:
  5078. aesenclast %xmm9, %xmm8
  5079. movdqu (%rcx), %xmm9
  5080. pxor %xmm9, %xmm8
  5081. movdqu %xmm8, (%rdx)
  5082. pshufb L_aes_gcm_bswap_mask(%rip), %xmm8
  5083. pxor %xmm8, %xmm6
  5084. addl $16, %r14d
  5085. cmpl %r13d, %r14d
  5086. jge L_AES_GCM_encrypt_update_aesni_last_block_ghash
  5087. L_AES_GCM_encrypt_update_aesni_last_block_start:
  5088. leaq (%r11,%r14,1), %rcx
  5089. leaq (%r10,%r14,1), %rdx
  5090. movdqa (%r12), %xmm8
  5091. movdqa %xmm8, %xmm9
  5092. pshufb L_aes_gcm_bswap_epi64(%rip), %xmm8
  5093. paddd L_aes_gcm_one(%rip), %xmm9
  5094. pxor (%rdi), %xmm8
  5095. movdqa %xmm9, (%r12)
  5096. movdqa %xmm6, %xmm10
  5097. pclmulqdq $16, %xmm5, %xmm10
  5098. aesenc 16(%rdi), %xmm8
  5099. aesenc 32(%rdi), %xmm8
  5100. movdqa %xmm6, %xmm11
  5101. pclmulqdq $0x01, %xmm5, %xmm11
  5102. aesenc 48(%rdi), %xmm8
  5103. aesenc 64(%rdi), %xmm8
  5104. movdqa %xmm6, %xmm12
  5105. pclmulqdq $0x00, %xmm5, %xmm12
  5106. aesenc 80(%rdi), %xmm8
  5107. movdqa %xmm6, %xmm1
  5108. pclmulqdq $0x11, %xmm5, %xmm1
  5109. aesenc 96(%rdi), %xmm8
  5110. pxor %xmm11, %xmm10
  5111. movdqa %xmm10, %xmm2
  5112. psrldq $8, %xmm10
  5113. pslldq $8, %xmm2
  5114. aesenc 112(%rdi), %xmm8
  5115. movdqa %xmm1, %xmm3
  5116. pxor %xmm12, %xmm2
  5117. pxor %xmm10, %xmm3
  5118. movdqa L_aes_gcm_mod2_128(%rip), %xmm0
  5119. movdqa %xmm2, %xmm11
  5120. pclmulqdq $16, %xmm0, %xmm11
  5121. aesenc 128(%rdi), %xmm8
  5122. pshufd $0x4e, %xmm2, %xmm10
  5123. pxor %xmm11, %xmm10
  5124. movdqa %xmm10, %xmm11
  5125. pclmulqdq $16, %xmm0, %xmm11
  5126. aesenc 144(%rdi), %xmm8
  5127. pshufd $0x4e, %xmm10, %xmm6
  5128. pxor %xmm11, %xmm6
  5129. pxor %xmm3, %xmm6
  5130. cmpl $11, %esi
  5131. movdqa 160(%rdi), %xmm9
  5132. jl L_AES_GCM_encrypt_update_aesni_aesenc_gfmul_last
  5133. aesenc %xmm9, %xmm8
  5134. aesenc 176(%rdi), %xmm8
  5135. cmpl $13, %esi
  5136. movdqa 192(%rdi), %xmm9
  5137. jl L_AES_GCM_encrypt_update_aesni_aesenc_gfmul_last
  5138. aesenc %xmm9, %xmm8
  5139. aesenc 208(%rdi), %xmm8
  5140. movdqa 224(%rdi), %xmm9
  5141. L_AES_GCM_encrypt_update_aesni_aesenc_gfmul_last:
  5142. aesenclast %xmm9, %xmm8
  5143. movdqu (%rcx), %xmm9
  5144. pxor %xmm9, %xmm8
  5145. movdqu %xmm8, (%rdx)
  5146. pshufb L_aes_gcm_bswap_mask(%rip), %xmm8
  5147. pxor %xmm8, %xmm6
  5148. addl $16, %r14d
  5149. cmpl %r13d, %r14d
  5150. jl L_AES_GCM_encrypt_update_aesni_last_block_start
  5151. L_AES_GCM_encrypt_update_aesni_last_block_ghash:
  5152. pshufd $0x4e, %xmm5, %xmm9
  5153. pshufd $0x4e, %xmm6, %xmm10
  5154. movdqa %xmm6, %xmm11
  5155. movdqa %xmm6, %xmm8
  5156. pclmulqdq $0x11, %xmm5, %xmm11
  5157. pclmulqdq $0x00, %xmm5, %xmm8
  5158. pxor %xmm5, %xmm9
  5159. pxor %xmm6, %xmm10
  5160. pclmulqdq $0x00, %xmm10, %xmm9
  5161. pxor %xmm8, %xmm9
  5162. pxor %xmm11, %xmm9
  5163. movdqa %xmm9, %xmm10
  5164. movdqa %xmm11, %xmm6
  5165. pslldq $8, %xmm10
  5166. psrldq $8, %xmm9
  5167. pxor %xmm10, %xmm8
  5168. pxor %xmm9, %xmm6
  5169. movdqa %xmm8, %xmm12
  5170. movdqa %xmm8, %xmm13
  5171. movdqa %xmm8, %xmm14
  5172. pslld $31, %xmm12
  5173. pslld $30, %xmm13
  5174. pslld $25, %xmm14
  5175. pxor %xmm13, %xmm12
  5176. pxor %xmm14, %xmm12
  5177. movdqa %xmm12, %xmm13
  5178. psrldq $4, %xmm13
  5179. pslldq $12, %xmm12
  5180. pxor %xmm12, %xmm8
  5181. movdqa %xmm8, %xmm14
  5182. movdqa %xmm8, %xmm10
  5183. movdqa %xmm8, %xmm9
  5184. psrld $0x01, %xmm14
  5185. psrld $2, %xmm10
  5186. psrld $7, %xmm9
  5187. pxor %xmm10, %xmm14
  5188. pxor %xmm9, %xmm14
  5189. pxor %xmm13, %xmm14
  5190. pxor %xmm8, %xmm14
  5191. pxor %xmm14, %xmm6
  5192. L_AES_GCM_encrypt_update_aesni_last_block_done:
  5193. L_AES_GCM_encrypt_update_aesni_done_enc:
  5194. movdqa %xmm6, (%r9)
  5195. addq $0xa0, %rsp
  5196. popq %r14
  5197. popq %r12
  5198. popq %r13
  5199. repz retq
  5200. #ifndef __APPLE__
  5201. .size AES_GCM_encrypt_update_aesni,.-AES_GCM_encrypt_update_aesni
  5202. #endif /* __APPLE__ */
  5203. #ifndef __APPLE__
  5204. .text
  5205. .globl AES_GCM_encrypt_final_aesni
  5206. .type AES_GCM_encrypt_final_aesni,@function
  5207. .align 16
  5208. AES_GCM_encrypt_final_aesni:
  5209. #else
  5210. .section __TEXT,__text
  5211. .globl _AES_GCM_encrypt_final_aesni
  5212. .p2align 4
  5213. _AES_GCM_encrypt_final_aesni:
  5214. #endif /* __APPLE__ */
  5215. pushq %r13
  5216. movq %rdx, %rax
  5217. movl %ecx, %r10d
  5218. movl %r8d, %r11d
  5219. movq 16(%rsp), %r8
  5220. subq $16, %rsp
  5221. movdqa (%rdi), %xmm4
  5222. movdqa (%r9), %xmm5
  5223. movdqa (%r8), %xmm6
  5224. movdqa %xmm5, %xmm9
  5225. movdqa %xmm5, %xmm8
  5226. psrlq $63, %xmm9
  5227. psllq $0x01, %xmm8
  5228. pslldq $8, %xmm9
  5229. por %xmm9, %xmm8
  5230. pshufd $0xff, %xmm5, %xmm5
  5231. psrad $31, %xmm5
  5232. pand L_aes_gcm_mod2_128(%rip), %xmm5
  5233. pxor %xmm8, %xmm5
  5234. movl %r10d, %edx
  5235. movl %r11d, %ecx
  5236. shlq $3, %rdx
  5237. shlq $3, %rcx
  5238. pinsrq $0x00, %rdx, %xmm0
  5239. pinsrq $0x01, %rcx, %xmm0
  5240. pxor %xmm0, %xmm4
  5241. pshufd $0x4e, %xmm5, %xmm9
  5242. pshufd $0x4e, %xmm4, %xmm10
  5243. movdqa %xmm4, %xmm11
  5244. movdqa %xmm4, %xmm8
  5245. pclmulqdq $0x11, %xmm5, %xmm11
  5246. pclmulqdq $0x00, %xmm5, %xmm8
  5247. pxor %xmm5, %xmm9
  5248. pxor %xmm4, %xmm10
  5249. pclmulqdq $0x00, %xmm10, %xmm9
  5250. pxor %xmm8, %xmm9
  5251. pxor %xmm11, %xmm9
  5252. movdqa %xmm9, %xmm10
  5253. movdqa %xmm11, %xmm4
  5254. pslldq $8, %xmm10
  5255. psrldq $8, %xmm9
  5256. pxor %xmm10, %xmm8
  5257. pxor %xmm9, %xmm4
  5258. movdqa %xmm8, %xmm12
  5259. movdqa %xmm8, %xmm13
  5260. movdqa %xmm8, %xmm14
  5261. pslld $31, %xmm12
  5262. pslld $30, %xmm13
  5263. pslld $25, %xmm14
  5264. pxor %xmm13, %xmm12
  5265. pxor %xmm14, %xmm12
  5266. movdqa %xmm12, %xmm13
  5267. psrldq $4, %xmm13
  5268. pslldq $12, %xmm12
  5269. pxor %xmm12, %xmm8
  5270. movdqa %xmm8, %xmm14
  5271. movdqa %xmm8, %xmm10
  5272. movdqa %xmm8, %xmm9
  5273. psrld $0x01, %xmm14
  5274. psrld $2, %xmm10
  5275. psrld $7, %xmm9
  5276. pxor %xmm10, %xmm14
  5277. pxor %xmm9, %xmm14
  5278. pxor %xmm13, %xmm14
  5279. pxor %xmm8, %xmm14
  5280. pxor %xmm14, %xmm4
  5281. pshufb L_aes_gcm_bswap_mask(%rip), %xmm4
  5282. movdqa %xmm6, %xmm0
  5283. pxor %xmm4, %xmm0
  5284. cmpl $16, %eax
  5285. je L_AES_GCM_encrypt_final_aesni_store_tag_16
  5286. xorq %rcx, %rcx
  5287. movdqa %xmm0, (%rsp)
  5288. L_AES_GCM_encrypt_final_aesni_store_tag_loop:
  5289. movzbl (%rsp,%rcx,1), %r13d
  5290. movb %r13b, (%rsi,%rcx,1)
  5291. incl %ecx
  5292. cmpl %eax, %ecx
  5293. jne L_AES_GCM_encrypt_final_aesni_store_tag_loop
  5294. jmp L_AES_GCM_encrypt_final_aesni_store_tag_done
  5295. L_AES_GCM_encrypt_final_aesni_store_tag_16:
  5296. movdqu %xmm0, (%rsi)
  5297. L_AES_GCM_encrypt_final_aesni_store_tag_done:
  5298. addq $16, %rsp
  5299. popq %r13
  5300. repz retq
  5301. #ifndef __APPLE__
  5302. .size AES_GCM_encrypt_final_aesni,.-AES_GCM_encrypt_final_aesni
  5303. #endif /* __APPLE__ */
  5304. #ifndef __APPLE__
  5305. .text
  5306. .globl AES_GCM_decrypt_update_aesni
  5307. .type AES_GCM_decrypt_update_aesni,@function
  5308. .align 16
  5309. AES_GCM_decrypt_update_aesni:
  5310. #else
  5311. .section __TEXT,__text
  5312. .globl _AES_GCM_decrypt_update_aesni
  5313. .p2align 4
  5314. _AES_GCM_decrypt_update_aesni:
  5315. #endif /* __APPLE__ */
  5316. pushq %r13
  5317. pushq %r12
  5318. pushq %r14
  5319. pushq %r15
  5320. movq %rdx, %r10
  5321. movq %rcx, %r11
  5322. movq 40(%rsp), %rax
  5323. movq 48(%rsp), %r12
  5324. subq $0xa8, %rsp
  5325. movdqa (%r9), %xmm6
  5326. movdqa (%rax), %xmm5
  5327. movdqa %xmm5, %xmm9
  5328. movdqa %xmm5, %xmm8
  5329. psrlq $63, %xmm9
  5330. psllq $0x01, %xmm8
  5331. pslldq $8, %xmm9
  5332. por %xmm9, %xmm8
  5333. pshufd $0xff, %xmm5, %xmm5
  5334. psrad $31, %xmm5
  5335. pand L_aes_gcm_mod2_128(%rip), %xmm5
  5336. pxor %xmm8, %xmm5
  5337. xorl %r14d, %r14d
  5338. cmpl $0x80, %r8d
  5339. movl %r8d, %r13d
  5340. jl L_AES_GCM_decrypt_update_aesni_done_128
  5341. andl $0xffffff80, %r13d
  5342. movdqa %xmm6, %xmm2
  5343. # H ^ 1
  5344. movdqa %xmm5, (%rsp)
  5345. # H ^ 2
  5346. pshufd $0x4e, %xmm5, %xmm9
  5347. pshufd $0x4e, %xmm5, %xmm10
  5348. movdqa %xmm5, %xmm11
  5349. movdqa %xmm5, %xmm8
  5350. pclmulqdq $0x11, %xmm5, %xmm11
  5351. pclmulqdq $0x00, %xmm5, %xmm8
  5352. pxor %xmm5, %xmm9
  5353. pxor %xmm5, %xmm10
  5354. pclmulqdq $0x00, %xmm10, %xmm9
  5355. pxor %xmm8, %xmm9
  5356. pxor %xmm11, %xmm9
  5357. movdqa %xmm9, %xmm10
  5358. movdqa %xmm11, %xmm0
  5359. pslldq $8, %xmm10
  5360. psrldq $8, %xmm9
  5361. pxor %xmm10, %xmm8
  5362. pxor %xmm9, %xmm0
  5363. movdqa %xmm8, %xmm12
  5364. movdqa %xmm8, %xmm13
  5365. movdqa %xmm8, %xmm14
  5366. pslld $31, %xmm12
  5367. pslld $30, %xmm13
  5368. pslld $25, %xmm14
  5369. pxor %xmm13, %xmm12
  5370. pxor %xmm14, %xmm12
  5371. movdqa %xmm12, %xmm13
  5372. psrldq $4, %xmm13
  5373. pslldq $12, %xmm12
  5374. pxor %xmm12, %xmm8
  5375. movdqa %xmm8, %xmm14
  5376. movdqa %xmm8, %xmm10
  5377. movdqa %xmm8, %xmm9
  5378. psrld $0x01, %xmm14
  5379. psrld $2, %xmm10
  5380. psrld $7, %xmm9
  5381. pxor %xmm10, %xmm14
  5382. pxor %xmm9, %xmm14
  5383. pxor %xmm13, %xmm14
  5384. pxor %xmm8, %xmm14
  5385. pxor %xmm14, %xmm0
  5386. movdqa %xmm0, 16(%rsp)
  5387. # H ^ 3
  5388. pshufd $0x4e, %xmm5, %xmm9
  5389. pshufd $0x4e, %xmm0, %xmm10
  5390. movdqa %xmm0, %xmm11
  5391. movdqa %xmm0, %xmm8
  5392. pclmulqdq $0x11, %xmm5, %xmm11
  5393. pclmulqdq $0x00, %xmm5, %xmm8
  5394. pxor %xmm5, %xmm9
  5395. pxor %xmm0, %xmm10
  5396. pclmulqdq $0x00, %xmm10, %xmm9
  5397. pxor %xmm8, %xmm9
  5398. pxor %xmm11, %xmm9
  5399. movdqa %xmm9, %xmm10
  5400. movdqa %xmm11, %xmm1
  5401. pslldq $8, %xmm10
  5402. psrldq $8, %xmm9
  5403. pxor %xmm10, %xmm8
  5404. pxor %xmm9, %xmm1
  5405. movdqa %xmm8, %xmm12
  5406. movdqa %xmm8, %xmm13
  5407. movdqa %xmm8, %xmm14
  5408. pslld $31, %xmm12
  5409. pslld $30, %xmm13
  5410. pslld $25, %xmm14
  5411. pxor %xmm13, %xmm12
  5412. pxor %xmm14, %xmm12
  5413. movdqa %xmm12, %xmm13
  5414. psrldq $4, %xmm13
  5415. pslldq $12, %xmm12
  5416. pxor %xmm12, %xmm8
  5417. movdqa %xmm8, %xmm14
  5418. movdqa %xmm8, %xmm10
  5419. movdqa %xmm8, %xmm9
  5420. psrld $0x01, %xmm14
  5421. psrld $2, %xmm10
  5422. psrld $7, %xmm9
  5423. pxor %xmm10, %xmm14
  5424. pxor %xmm9, %xmm14
  5425. pxor %xmm13, %xmm14
  5426. pxor %xmm8, %xmm14
  5427. pxor %xmm14, %xmm1
  5428. movdqa %xmm1, 32(%rsp)
  5429. # H ^ 4
  5430. pshufd $0x4e, %xmm0, %xmm9
  5431. pshufd $0x4e, %xmm0, %xmm10
  5432. movdqa %xmm0, %xmm11
  5433. movdqa %xmm0, %xmm8
  5434. pclmulqdq $0x11, %xmm0, %xmm11
  5435. pclmulqdq $0x00, %xmm0, %xmm8
  5436. pxor %xmm0, %xmm9
  5437. pxor %xmm0, %xmm10
  5438. pclmulqdq $0x00, %xmm10, %xmm9
  5439. pxor %xmm8, %xmm9
  5440. pxor %xmm11, %xmm9
  5441. movdqa %xmm9, %xmm10
  5442. movdqa %xmm11, %xmm3
  5443. pslldq $8, %xmm10
  5444. psrldq $8, %xmm9
  5445. pxor %xmm10, %xmm8
  5446. pxor %xmm9, %xmm3
  5447. movdqa %xmm8, %xmm12
  5448. movdqa %xmm8, %xmm13
  5449. movdqa %xmm8, %xmm14
  5450. pslld $31, %xmm12
  5451. pslld $30, %xmm13
  5452. pslld $25, %xmm14
  5453. pxor %xmm13, %xmm12
  5454. pxor %xmm14, %xmm12
  5455. movdqa %xmm12, %xmm13
  5456. psrldq $4, %xmm13
  5457. pslldq $12, %xmm12
  5458. pxor %xmm12, %xmm8
  5459. movdqa %xmm8, %xmm14
  5460. movdqa %xmm8, %xmm10
  5461. movdqa %xmm8, %xmm9
  5462. psrld $0x01, %xmm14
  5463. psrld $2, %xmm10
  5464. psrld $7, %xmm9
  5465. pxor %xmm10, %xmm14
  5466. pxor %xmm9, %xmm14
  5467. pxor %xmm13, %xmm14
  5468. pxor %xmm8, %xmm14
  5469. pxor %xmm14, %xmm3
  5470. movdqa %xmm3, 48(%rsp)
  5471. # H ^ 5
  5472. pshufd $0x4e, %xmm0, %xmm9
  5473. pshufd $0x4e, %xmm1, %xmm10
  5474. movdqa %xmm1, %xmm11
  5475. movdqa %xmm1, %xmm8
  5476. pclmulqdq $0x11, %xmm0, %xmm11
  5477. pclmulqdq $0x00, %xmm0, %xmm8
  5478. pxor %xmm0, %xmm9
  5479. pxor %xmm1, %xmm10
  5480. pclmulqdq $0x00, %xmm10, %xmm9
  5481. pxor %xmm8, %xmm9
  5482. pxor %xmm11, %xmm9
  5483. movdqa %xmm9, %xmm10
  5484. movdqa %xmm11, %xmm7
  5485. pslldq $8, %xmm10
  5486. psrldq $8, %xmm9
  5487. pxor %xmm10, %xmm8
  5488. pxor %xmm9, %xmm7
  5489. movdqa %xmm8, %xmm12
  5490. movdqa %xmm8, %xmm13
  5491. movdqa %xmm8, %xmm14
  5492. pslld $31, %xmm12
  5493. pslld $30, %xmm13
  5494. pslld $25, %xmm14
  5495. pxor %xmm13, %xmm12
  5496. pxor %xmm14, %xmm12
  5497. movdqa %xmm12, %xmm13
  5498. psrldq $4, %xmm13
  5499. pslldq $12, %xmm12
  5500. pxor %xmm12, %xmm8
  5501. movdqa %xmm8, %xmm14
  5502. movdqa %xmm8, %xmm10
  5503. movdqa %xmm8, %xmm9
  5504. psrld $0x01, %xmm14
  5505. psrld $2, %xmm10
  5506. psrld $7, %xmm9
  5507. pxor %xmm10, %xmm14
  5508. pxor %xmm9, %xmm14
  5509. pxor %xmm13, %xmm14
  5510. pxor %xmm8, %xmm14
  5511. pxor %xmm14, %xmm7
  5512. movdqa %xmm7, 64(%rsp)
  5513. # H ^ 6
  5514. pshufd $0x4e, %xmm1, %xmm9
  5515. pshufd $0x4e, %xmm1, %xmm10
  5516. movdqa %xmm1, %xmm11
  5517. movdqa %xmm1, %xmm8
  5518. pclmulqdq $0x11, %xmm1, %xmm11
  5519. pclmulqdq $0x00, %xmm1, %xmm8
  5520. pxor %xmm1, %xmm9
  5521. pxor %xmm1, %xmm10
  5522. pclmulqdq $0x00, %xmm10, %xmm9
  5523. pxor %xmm8, %xmm9
  5524. pxor %xmm11, %xmm9
  5525. movdqa %xmm9, %xmm10
  5526. movdqa %xmm11, %xmm7
  5527. pslldq $8, %xmm10
  5528. psrldq $8, %xmm9
  5529. pxor %xmm10, %xmm8
  5530. pxor %xmm9, %xmm7
  5531. movdqa %xmm8, %xmm12
  5532. movdqa %xmm8, %xmm13
  5533. movdqa %xmm8, %xmm14
  5534. pslld $31, %xmm12
  5535. pslld $30, %xmm13
  5536. pslld $25, %xmm14
  5537. pxor %xmm13, %xmm12
  5538. pxor %xmm14, %xmm12
  5539. movdqa %xmm12, %xmm13
  5540. psrldq $4, %xmm13
  5541. pslldq $12, %xmm12
  5542. pxor %xmm12, %xmm8
  5543. movdqa %xmm8, %xmm14
  5544. movdqa %xmm8, %xmm10
  5545. movdqa %xmm8, %xmm9
  5546. psrld $0x01, %xmm14
  5547. psrld $2, %xmm10
  5548. psrld $7, %xmm9
  5549. pxor %xmm10, %xmm14
  5550. pxor %xmm9, %xmm14
  5551. pxor %xmm13, %xmm14
  5552. pxor %xmm8, %xmm14
  5553. pxor %xmm14, %xmm7
  5554. movdqa %xmm7, 80(%rsp)
  5555. # H ^ 7
  5556. pshufd $0x4e, %xmm1, %xmm9
  5557. pshufd $0x4e, %xmm3, %xmm10
  5558. movdqa %xmm3, %xmm11
  5559. movdqa %xmm3, %xmm8
  5560. pclmulqdq $0x11, %xmm1, %xmm11
  5561. pclmulqdq $0x00, %xmm1, %xmm8
  5562. pxor %xmm1, %xmm9
  5563. pxor %xmm3, %xmm10
  5564. pclmulqdq $0x00, %xmm10, %xmm9
  5565. pxor %xmm8, %xmm9
  5566. pxor %xmm11, %xmm9
  5567. movdqa %xmm9, %xmm10
  5568. movdqa %xmm11, %xmm7
  5569. pslldq $8, %xmm10
  5570. psrldq $8, %xmm9
  5571. pxor %xmm10, %xmm8
  5572. pxor %xmm9, %xmm7
  5573. movdqa %xmm8, %xmm12
  5574. movdqa %xmm8, %xmm13
  5575. movdqa %xmm8, %xmm14
  5576. pslld $31, %xmm12
  5577. pslld $30, %xmm13
  5578. pslld $25, %xmm14
  5579. pxor %xmm13, %xmm12
  5580. pxor %xmm14, %xmm12
  5581. movdqa %xmm12, %xmm13
  5582. psrldq $4, %xmm13
  5583. pslldq $12, %xmm12
  5584. pxor %xmm12, %xmm8
  5585. movdqa %xmm8, %xmm14
  5586. movdqa %xmm8, %xmm10
  5587. movdqa %xmm8, %xmm9
  5588. psrld $0x01, %xmm14
  5589. psrld $2, %xmm10
  5590. psrld $7, %xmm9
  5591. pxor %xmm10, %xmm14
  5592. pxor %xmm9, %xmm14
  5593. pxor %xmm13, %xmm14
  5594. pxor %xmm8, %xmm14
  5595. pxor %xmm14, %xmm7
  5596. movdqa %xmm7, 96(%rsp)
  5597. # H ^ 8
  5598. pshufd $0x4e, %xmm3, %xmm9
  5599. pshufd $0x4e, %xmm3, %xmm10
  5600. movdqa %xmm3, %xmm11
  5601. movdqa %xmm3, %xmm8
  5602. pclmulqdq $0x11, %xmm3, %xmm11
  5603. pclmulqdq $0x00, %xmm3, %xmm8
  5604. pxor %xmm3, %xmm9
  5605. pxor %xmm3, %xmm10
  5606. pclmulqdq $0x00, %xmm10, %xmm9
  5607. pxor %xmm8, %xmm9
  5608. pxor %xmm11, %xmm9
  5609. movdqa %xmm9, %xmm10
  5610. movdqa %xmm11, %xmm7
  5611. pslldq $8, %xmm10
  5612. psrldq $8, %xmm9
  5613. pxor %xmm10, %xmm8
  5614. pxor %xmm9, %xmm7
  5615. movdqa %xmm8, %xmm12
  5616. movdqa %xmm8, %xmm13
  5617. movdqa %xmm8, %xmm14
  5618. pslld $31, %xmm12
  5619. pslld $30, %xmm13
  5620. pslld $25, %xmm14
  5621. pxor %xmm13, %xmm12
  5622. pxor %xmm14, %xmm12
  5623. movdqa %xmm12, %xmm13
  5624. psrldq $4, %xmm13
  5625. pslldq $12, %xmm12
  5626. pxor %xmm12, %xmm8
  5627. movdqa %xmm8, %xmm14
  5628. movdqa %xmm8, %xmm10
  5629. movdqa %xmm8, %xmm9
  5630. psrld $0x01, %xmm14
  5631. psrld $2, %xmm10
  5632. psrld $7, %xmm9
  5633. pxor %xmm10, %xmm14
  5634. pxor %xmm9, %xmm14
  5635. pxor %xmm13, %xmm14
  5636. pxor %xmm8, %xmm14
  5637. pxor %xmm14, %xmm7
  5638. movdqa %xmm7, 112(%rsp)
  5639. L_AES_GCM_decrypt_update_aesni_ghash_128:
  5640. leaq (%r11,%r14,1), %rcx
  5641. leaq (%r10,%r14,1), %rdx
  5642. movdqa (%r12), %xmm8
  5643. movdqa L_aes_gcm_bswap_epi64(%rip), %xmm1
  5644. movdqa %xmm8, %xmm0
  5645. pshufb %xmm1, %xmm8
  5646. movdqa %xmm0, %xmm9
  5647. paddd L_aes_gcm_one(%rip), %xmm9
  5648. pshufb %xmm1, %xmm9
  5649. movdqa %xmm0, %xmm10
  5650. paddd L_aes_gcm_two(%rip), %xmm10
  5651. pshufb %xmm1, %xmm10
  5652. movdqa %xmm0, %xmm11
  5653. paddd L_aes_gcm_three(%rip), %xmm11
  5654. pshufb %xmm1, %xmm11
  5655. movdqa %xmm0, %xmm12
  5656. paddd L_aes_gcm_four(%rip), %xmm12
  5657. pshufb %xmm1, %xmm12
  5658. movdqa %xmm0, %xmm13
  5659. paddd L_aes_gcm_five(%rip), %xmm13
  5660. pshufb %xmm1, %xmm13
  5661. movdqa %xmm0, %xmm14
  5662. paddd L_aes_gcm_six(%rip), %xmm14
  5663. pshufb %xmm1, %xmm14
  5664. movdqa %xmm0, %xmm15
  5665. paddd L_aes_gcm_seven(%rip), %xmm15
  5666. pshufb %xmm1, %xmm15
  5667. paddd L_aes_gcm_eight(%rip), %xmm0
  5668. movdqa (%rdi), %xmm7
  5669. movdqa %xmm0, (%r12)
  5670. pxor %xmm7, %xmm8
  5671. pxor %xmm7, %xmm9
  5672. pxor %xmm7, %xmm10
  5673. pxor %xmm7, %xmm11
  5674. pxor %xmm7, %xmm12
  5675. pxor %xmm7, %xmm13
  5676. pxor %xmm7, %xmm14
  5677. pxor %xmm7, %xmm15
  5678. movdqa 112(%rsp), %xmm7
  5679. movdqu (%rcx), %xmm0
  5680. aesenc 16(%rdi), %xmm8
  5681. pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
  5682. pxor %xmm2, %xmm0
  5683. pshufd $0x4e, %xmm7, %xmm1
  5684. pshufd $0x4e, %xmm0, %xmm5
  5685. pxor %xmm7, %xmm1
  5686. pxor %xmm0, %xmm5
  5687. movdqa %xmm0, %xmm3
  5688. pclmulqdq $0x11, %xmm7, %xmm3
  5689. aesenc 16(%rdi), %xmm9
  5690. aesenc 16(%rdi), %xmm10
  5691. movdqa %xmm0, %xmm2
  5692. pclmulqdq $0x00, %xmm7, %xmm2
  5693. aesenc 16(%rdi), %xmm11
  5694. aesenc 16(%rdi), %xmm12
  5695. pclmulqdq $0x00, %xmm5, %xmm1
  5696. aesenc 16(%rdi), %xmm13
  5697. aesenc 16(%rdi), %xmm14
  5698. aesenc 16(%rdi), %xmm15
  5699. pxor %xmm2, %xmm1
  5700. pxor %xmm3, %xmm1
  5701. movdqa 96(%rsp), %xmm7
  5702. movdqu 16(%rcx), %xmm0
  5703. pshufd $0x4e, %xmm7, %xmm4
  5704. pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
  5705. aesenc 32(%rdi), %xmm8
  5706. pxor %xmm7, %xmm4
  5707. pshufd $0x4e, %xmm0, %xmm5
  5708. pxor %xmm0, %xmm5
  5709. movdqa %xmm0, %xmm6
  5710. pclmulqdq $0x11, %xmm7, %xmm6
  5711. aesenc 32(%rdi), %xmm9
  5712. aesenc 32(%rdi), %xmm10
  5713. pclmulqdq $0x00, %xmm0, %xmm7
  5714. aesenc 32(%rdi), %xmm11
  5715. aesenc 32(%rdi), %xmm12
  5716. pclmulqdq $0x00, %xmm5, %xmm4
  5717. aesenc 32(%rdi), %xmm13
  5718. aesenc 32(%rdi), %xmm14
  5719. aesenc 32(%rdi), %xmm15
  5720. pxor %xmm7, %xmm1
  5721. pxor %xmm7, %xmm2
  5722. pxor %xmm6, %xmm1
  5723. pxor %xmm6, %xmm3
  5724. pxor %xmm4, %xmm1
  5725. movdqa 80(%rsp), %xmm7
  5726. movdqu 32(%rcx), %xmm0
  5727. pshufd $0x4e, %xmm7, %xmm4
  5728. pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
  5729. aesenc 48(%rdi), %xmm8
  5730. pxor %xmm7, %xmm4
  5731. pshufd $0x4e, %xmm0, %xmm5
  5732. pxor %xmm0, %xmm5
  5733. movdqa %xmm0, %xmm6
  5734. pclmulqdq $0x11, %xmm7, %xmm6
  5735. aesenc 48(%rdi), %xmm9
  5736. aesenc 48(%rdi), %xmm10
  5737. pclmulqdq $0x00, %xmm0, %xmm7
  5738. aesenc 48(%rdi), %xmm11
  5739. aesenc 48(%rdi), %xmm12
  5740. pclmulqdq $0x00, %xmm5, %xmm4
  5741. aesenc 48(%rdi), %xmm13
  5742. aesenc 48(%rdi), %xmm14
  5743. aesenc 48(%rdi), %xmm15
  5744. pxor %xmm7, %xmm1
  5745. pxor %xmm7, %xmm2
  5746. pxor %xmm6, %xmm1
  5747. pxor %xmm6, %xmm3
  5748. pxor %xmm4, %xmm1
  5749. movdqa 64(%rsp), %xmm7
  5750. movdqu 48(%rcx), %xmm0
  5751. pshufd $0x4e, %xmm7, %xmm4
  5752. pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
  5753. aesenc 64(%rdi), %xmm8
  5754. pxor %xmm7, %xmm4
  5755. pshufd $0x4e, %xmm0, %xmm5
  5756. pxor %xmm0, %xmm5
  5757. movdqa %xmm0, %xmm6
  5758. pclmulqdq $0x11, %xmm7, %xmm6
  5759. aesenc 64(%rdi), %xmm9
  5760. aesenc 64(%rdi), %xmm10
  5761. pclmulqdq $0x00, %xmm0, %xmm7
  5762. aesenc 64(%rdi), %xmm11
  5763. aesenc 64(%rdi), %xmm12
  5764. pclmulqdq $0x00, %xmm5, %xmm4
  5765. aesenc 64(%rdi), %xmm13
  5766. aesenc 64(%rdi), %xmm14
  5767. aesenc 64(%rdi), %xmm15
  5768. pxor %xmm7, %xmm1
  5769. pxor %xmm7, %xmm2
  5770. pxor %xmm6, %xmm1
  5771. pxor %xmm6, %xmm3
  5772. pxor %xmm4, %xmm1
  5773. movdqa 48(%rsp), %xmm7
  5774. movdqu 64(%rcx), %xmm0
  5775. pshufd $0x4e, %xmm7, %xmm4
  5776. pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
  5777. aesenc 80(%rdi), %xmm8
  5778. pxor %xmm7, %xmm4
  5779. pshufd $0x4e, %xmm0, %xmm5
  5780. pxor %xmm0, %xmm5
  5781. movdqa %xmm0, %xmm6
  5782. pclmulqdq $0x11, %xmm7, %xmm6
  5783. aesenc 80(%rdi), %xmm9
  5784. aesenc 80(%rdi), %xmm10
  5785. pclmulqdq $0x00, %xmm0, %xmm7
  5786. aesenc 80(%rdi), %xmm11
  5787. aesenc 80(%rdi), %xmm12
  5788. pclmulqdq $0x00, %xmm5, %xmm4
  5789. aesenc 80(%rdi), %xmm13
  5790. aesenc 80(%rdi), %xmm14
  5791. aesenc 80(%rdi), %xmm15
  5792. pxor %xmm7, %xmm1
  5793. pxor %xmm7, %xmm2
  5794. pxor %xmm6, %xmm1
  5795. pxor %xmm6, %xmm3
  5796. pxor %xmm4, %xmm1
  5797. movdqa 32(%rsp), %xmm7
  5798. movdqu 80(%rcx), %xmm0
  5799. pshufd $0x4e, %xmm7, %xmm4
  5800. pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
  5801. aesenc 96(%rdi), %xmm8
  5802. pxor %xmm7, %xmm4
  5803. pshufd $0x4e, %xmm0, %xmm5
  5804. pxor %xmm0, %xmm5
  5805. movdqa %xmm0, %xmm6
  5806. pclmulqdq $0x11, %xmm7, %xmm6
  5807. aesenc 96(%rdi), %xmm9
  5808. aesenc 96(%rdi), %xmm10
  5809. pclmulqdq $0x00, %xmm0, %xmm7
  5810. aesenc 96(%rdi), %xmm11
  5811. aesenc 96(%rdi), %xmm12
  5812. pclmulqdq $0x00, %xmm5, %xmm4
  5813. aesenc 96(%rdi), %xmm13
  5814. aesenc 96(%rdi), %xmm14
  5815. aesenc 96(%rdi), %xmm15
  5816. pxor %xmm7, %xmm1
  5817. pxor %xmm7, %xmm2
  5818. pxor %xmm6, %xmm1
  5819. pxor %xmm6, %xmm3
  5820. pxor %xmm4, %xmm1
  5821. movdqa 16(%rsp), %xmm7
  5822. movdqu 96(%rcx), %xmm0
  5823. pshufd $0x4e, %xmm7, %xmm4
  5824. pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
  5825. aesenc 112(%rdi), %xmm8
  5826. pxor %xmm7, %xmm4
  5827. pshufd $0x4e, %xmm0, %xmm5
  5828. pxor %xmm0, %xmm5
  5829. movdqa %xmm0, %xmm6
  5830. pclmulqdq $0x11, %xmm7, %xmm6
  5831. aesenc 112(%rdi), %xmm9
  5832. aesenc 112(%rdi), %xmm10
  5833. pclmulqdq $0x00, %xmm0, %xmm7
  5834. aesenc 112(%rdi), %xmm11
  5835. aesenc 112(%rdi), %xmm12
  5836. pclmulqdq $0x00, %xmm5, %xmm4
  5837. aesenc 112(%rdi), %xmm13
  5838. aesenc 112(%rdi), %xmm14
  5839. aesenc 112(%rdi), %xmm15
  5840. pxor %xmm7, %xmm1
  5841. pxor %xmm7, %xmm2
  5842. pxor %xmm6, %xmm1
  5843. pxor %xmm6, %xmm3
  5844. pxor %xmm4, %xmm1
  5845. movdqa (%rsp), %xmm7
  5846. movdqu 112(%rcx), %xmm0
  5847. pshufd $0x4e, %xmm7, %xmm4
  5848. pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
  5849. aesenc 128(%rdi), %xmm8
  5850. pxor %xmm7, %xmm4
  5851. pshufd $0x4e, %xmm0, %xmm5
  5852. pxor %xmm0, %xmm5
  5853. movdqa %xmm0, %xmm6
  5854. pclmulqdq $0x11, %xmm7, %xmm6
  5855. aesenc 128(%rdi), %xmm9
  5856. aesenc 128(%rdi), %xmm10
  5857. pclmulqdq $0x00, %xmm0, %xmm7
  5858. aesenc 128(%rdi), %xmm11
  5859. aesenc 128(%rdi), %xmm12
  5860. pclmulqdq $0x00, %xmm5, %xmm4
  5861. aesenc 128(%rdi), %xmm13
  5862. aesenc 128(%rdi), %xmm14
  5863. aesenc 128(%rdi), %xmm15
  5864. pxor %xmm7, %xmm1
  5865. pxor %xmm7, %xmm2
  5866. pxor %xmm6, %xmm1
  5867. pxor %xmm6, %xmm3
  5868. pxor %xmm4, %xmm1
  5869. movdqa %xmm1, %xmm5
  5870. psrldq $8, %xmm1
  5871. pslldq $8, %xmm5
  5872. aesenc 144(%rdi), %xmm8
  5873. pxor %xmm5, %xmm2
  5874. pxor %xmm1, %xmm3
  5875. movdqa %xmm2, %xmm7
  5876. movdqa %xmm2, %xmm4
  5877. movdqa %xmm2, %xmm5
  5878. aesenc 144(%rdi), %xmm9
  5879. pslld $31, %xmm7
  5880. pslld $30, %xmm4
  5881. pslld $25, %xmm5
  5882. aesenc 144(%rdi), %xmm10
  5883. pxor %xmm4, %xmm7
  5884. pxor %xmm5, %xmm7
  5885. aesenc 144(%rdi), %xmm11
  5886. movdqa %xmm7, %xmm4
  5887. pslldq $12, %xmm7
  5888. psrldq $4, %xmm4
  5889. aesenc 144(%rdi), %xmm12
  5890. pxor %xmm7, %xmm2
  5891. movdqa %xmm2, %xmm5
  5892. movdqa %xmm2, %xmm1
  5893. movdqa %xmm2, %xmm0
  5894. aesenc 144(%rdi), %xmm13
  5895. psrld $0x01, %xmm5
  5896. psrld $2, %xmm1
  5897. psrld $7, %xmm0
  5898. aesenc 144(%rdi), %xmm14
  5899. pxor %xmm1, %xmm5
  5900. pxor %xmm0, %xmm5
  5901. aesenc 144(%rdi), %xmm15
  5902. pxor %xmm4, %xmm5
  5903. pxor %xmm5, %xmm2
  5904. pxor %xmm3, %xmm2
  5905. cmpl $11, %esi
  5906. movdqa 160(%rdi), %xmm7
  5907. jl L_AES_GCM_decrypt_update_aesni_aesenc_128_ghash_avx_done
  5908. aesenc %xmm7, %xmm8
  5909. aesenc %xmm7, %xmm9
  5910. aesenc %xmm7, %xmm10
  5911. aesenc %xmm7, %xmm11
  5912. aesenc %xmm7, %xmm12
  5913. aesenc %xmm7, %xmm13
  5914. aesenc %xmm7, %xmm14
  5915. aesenc %xmm7, %xmm15
  5916. movdqa 176(%rdi), %xmm7
  5917. aesenc %xmm7, %xmm8
  5918. aesenc %xmm7, %xmm9
  5919. aesenc %xmm7, %xmm10
  5920. aesenc %xmm7, %xmm11
  5921. aesenc %xmm7, %xmm12
  5922. aesenc %xmm7, %xmm13
  5923. aesenc %xmm7, %xmm14
  5924. aesenc %xmm7, %xmm15
  5925. cmpl $13, %esi
  5926. movdqa 192(%rdi), %xmm7
  5927. jl L_AES_GCM_decrypt_update_aesni_aesenc_128_ghash_avx_done
  5928. aesenc %xmm7, %xmm8
  5929. aesenc %xmm7, %xmm9
  5930. aesenc %xmm7, %xmm10
  5931. aesenc %xmm7, %xmm11
  5932. aesenc %xmm7, %xmm12
  5933. aesenc %xmm7, %xmm13
  5934. aesenc %xmm7, %xmm14
  5935. aesenc %xmm7, %xmm15
  5936. movdqa 208(%rdi), %xmm7
  5937. aesenc %xmm7, %xmm8
  5938. aesenc %xmm7, %xmm9
  5939. aesenc %xmm7, %xmm10
  5940. aesenc %xmm7, %xmm11
  5941. aesenc %xmm7, %xmm12
  5942. aesenc %xmm7, %xmm13
  5943. aesenc %xmm7, %xmm14
  5944. aesenc %xmm7, %xmm15
  5945. movdqa 224(%rdi), %xmm7
  5946. L_AES_GCM_decrypt_update_aesni_aesenc_128_ghash_avx_done:
  5947. aesenclast %xmm7, %xmm8
  5948. aesenclast %xmm7, %xmm9
  5949. movdqu (%rcx), %xmm0
  5950. movdqu 16(%rcx), %xmm1
  5951. pxor %xmm0, %xmm8
  5952. pxor %xmm1, %xmm9
  5953. movdqu %xmm8, (%rdx)
  5954. movdqu %xmm9, 16(%rdx)
  5955. aesenclast %xmm7, %xmm10
  5956. aesenclast %xmm7, %xmm11
  5957. movdqu 32(%rcx), %xmm0
  5958. movdqu 48(%rcx), %xmm1
  5959. pxor %xmm0, %xmm10
  5960. pxor %xmm1, %xmm11
  5961. movdqu %xmm10, 32(%rdx)
  5962. movdqu %xmm11, 48(%rdx)
  5963. aesenclast %xmm7, %xmm12
  5964. aesenclast %xmm7, %xmm13
  5965. movdqu 64(%rcx), %xmm0
  5966. movdqu 80(%rcx), %xmm1
  5967. pxor %xmm0, %xmm12
  5968. pxor %xmm1, %xmm13
  5969. movdqu %xmm12, 64(%rdx)
  5970. movdqu %xmm13, 80(%rdx)
  5971. aesenclast %xmm7, %xmm14
  5972. aesenclast %xmm7, %xmm15
  5973. movdqu 96(%rcx), %xmm0
  5974. movdqu 112(%rcx), %xmm1
  5975. pxor %xmm0, %xmm14
  5976. pxor %xmm1, %xmm15
  5977. movdqu %xmm14, 96(%rdx)
  5978. movdqu %xmm15, 112(%rdx)
  5979. addl $0x80, %r14d
  5980. cmpl %r13d, %r14d
  5981. jl L_AES_GCM_decrypt_update_aesni_ghash_128
  5982. movdqa %xmm2, %xmm6
  5983. movdqa (%rsp), %xmm5
  5984. L_AES_GCM_decrypt_update_aesni_done_128:
  5985. movl %r8d, %edx
  5986. cmpl %edx, %r14d
  5987. jge L_AES_GCM_decrypt_update_aesni_done_dec
  5988. movl %r8d, %r13d
  5989. andl $0xfffffff0, %r13d
  5990. cmpl %r13d, %r14d
  5991. jge L_AES_GCM_decrypt_update_aesni_last_block_done
  5992. L_AES_GCM_decrypt_update_aesni_last_block_start:
  5993. leaq (%r11,%r14,1), %rcx
  5994. leaq (%r10,%r14,1), %rdx
  5995. movdqu (%rcx), %xmm1
  5996. movdqa %xmm5, %xmm0
  5997. pshufb L_aes_gcm_bswap_mask(%rip), %xmm1
  5998. pxor %xmm6, %xmm1
  5999. movdqa (%r12), %xmm8
  6000. movdqa %xmm8, %xmm9
  6001. pshufb L_aes_gcm_bswap_epi64(%rip), %xmm8
  6002. paddd L_aes_gcm_one(%rip), %xmm9
  6003. pxor (%rdi), %xmm8
  6004. movdqa %xmm9, (%r12)
  6005. movdqa %xmm1, %xmm10
  6006. pclmulqdq $16, %xmm0, %xmm10
  6007. aesenc 16(%rdi), %xmm8
  6008. aesenc 32(%rdi), %xmm8
  6009. movdqa %xmm1, %xmm11
  6010. pclmulqdq $0x01, %xmm0, %xmm11
  6011. aesenc 48(%rdi), %xmm8
  6012. aesenc 64(%rdi), %xmm8
  6013. movdqa %xmm1, %xmm12
  6014. pclmulqdq $0x00, %xmm0, %xmm12
  6015. aesenc 80(%rdi), %xmm8
  6016. movdqa %xmm1, %xmm1
  6017. pclmulqdq $0x11, %xmm0, %xmm1
  6018. aesenc 96(%rdi), %xmm8
  6019. pxor %xmm11, %xmm10
  6020. movdqa %xmm10, %xmm2
  6021. psrldq $8, %xmm10
  6022. pslldq $8, %xmm2
  6023. aesenc 112(%rdi), %xmm8
  6024. movdqa %xmm1, %xmm3
  6025. pxor %xmm12, %xmm2
  6026. pxor %xmm10, %xmm3
  6027. movdqa L_aes_gcm_mod2_128(%rip), %xmm0
  6028. movdqa %xmm2, %xmm11
  6029. pclmulqdq $16, %xmm0, %xmm11
  6030. aesenc 128(%rdi), %xmm8
  6031. pshufd $0x4e, %xmm2, %xmm10
  6032. pxor %xmm11, %xmm10
  6033. movdqa %xmm10, %xmm11
  6034. pclmulqdq $16, %xmm0, %xmm11
  6035. aesenc 144(%rdi), %xmm8
  6036. pshufd $0x4e, %xmm10, %xmm6
  6037. pxor %xmm11, %xmm6
  6038. pxor %xmm3, %xmm6
  6039. cmpl $11, %esi
  6040. movdqa 160(%rdi), %xmm9
  6041. jl L_AES_GCM_decrypt_update_aesni_aesenc_gfmul_last
  6042. aesenc %xmm9, %xmm8
  6043. aesenc 176(%rdi), %xmm8
  6044. cmpl $13, %esi
  6045. movdqa 192(%rdi), %xmm9
  6046. jl L_AES_GCM_decrypt_update_aesni_aesenc_gfmul_last
  6047. aesenc %xmm9, %xmm8
  6048. aesenc 208(%rdi), %xmm8
  6049. movdqa 224(%rdi), %xmm9
  6050. L_AES_GCM_decrypt_update_aesni_aesenc_gfmul_last:
  6051. aesenclast %xmm9, %xmm8
  6052. movdqu (%rcx), %xmm9
  6053. pxor %xmm9, %xmm8
  6054. movdqu %xmm8, (%rdx)
  6055. addl $16, %r14d
  6056. cmpl %r13d, %r14d
  6057. jl L_AES_GCM_decrypt_update_aesni_last_block_start
  6058. L_AES_GCM_decrypt_update_aesni_last_block_done:
  6059. L_AES_GCM_decrypt_update_aesni_done_dec:
  6060. movdqa %xmm6, (%r9)
  6061. addq $0xa8, %rsp
  6062. popq %r15
  6063. popq %r14
  6064. popq %r12
  6065. popq %r13
  6066. repz retq
  6067. #ifndef __APPLE__
  6068. .size AES_GCM_decrypt_update_aesni,.-AES_GCM_decrypt_update_aesni
  6069. #endif /* __APPLE__ */
  6070. #ifndef __APPLE__
  6071. .text
  6072. .globl AES_GCM_decrypt_final_aesni
  6073. .type AES_GCM_decrypt_final_aesni,@function
  6074. .align 16
  6075. AES_GCM_decrypt_final_aesni:
  6076. #else
  6077. .section __TEXT,__text
  6078. .globl _AES_GCM_decrypt_final_aesni
  6079. .p2align 4
  6080. _AES_GCM_decrypt_final_aesni:
  6081. #endif /* __APPLE__ */
  6082. pushq %r13
  6083. pushq %rbp
  6084. pushq %r12
  6085. movq %rdx, %rax
  6086. movl %ecx, %r10d
  6087. movl %r8d, %r11d
  6088. movq 32(%rsp), %r8
  6089. movq 40(%rsp), %rbp
  6090. subq $16, %rsp
  6091. movdqa (%rdi), %xmm6
  6092. movdqa (%r9), %xmm5
  6093. movdqa (%r8), %xmm15
  6094. movdqa %xmm5, %xmm9
  6095. movdqa %xmm5, %xmm8
  6096. psrlq $63, %xmm9
  6097. psllq $0x01, %xmm8
  6098. pslldq $8, %xmm9
  6099. por %xmm9, %xmm8
  6100. pshufd $0xff, %xmm5, %xmm5
  6101. psrad $31, %xmm5
  6102. pand L_aes_gcm_mod2_128(%rip), %xmm5
  6103. pxor %xmm8, %xmm5
  6104. movl %r10d, %edx
  6105. movl %r11d, %ecx
  6106. shlq $3, %rdx
  6107. shlq $3, %rcx
  6108. pinsrq $0x00, %rdx, %xmm0
  6109. pinsrq $0x01, %rcx, %xmm0
  6110. pxor %xmm0, %xmm6
  6111. pshufd $0x4e, %xmm5, %xmm9
  6112. pshufd $0x4e, %xmm6, %xmm10
  6113. movdqa %xmm6, %xmm11
  6114. movdqa %xmm6, %xmm8
  6115. pclmulqdq $0x11, %xmm5, %xmm11
  6116. pclmulqdq $0x00, %xmm5, %xmm8
  6117. pxor %xmm5, %xmm9
  6118. pxor %xmm6, %xmm10
  6119. pclmulqdq $0x00, %xmm10, %xmm9
  6120. pxor %xmm8, %xmm9
  6121. pxor %xmm11, %xmm9
  6122. movdqa %xmm9, %xmm10
  6123. movdqa %xmm11, %xmm6
  6124. pslldq $8, %xmm10
  6125. psrldq $8, %xmm9
  6126. pxor %xmm10, %xmm8
  6127. pxor %xmm9, %xmm6
  6128. movdqa %xmm8, %xmm12
  6129. movdqa %xmm8, %xmm13
  6130. movdqa %xmm8, %xmm14
  6131. pslld $31, %xmm12
  6132. pslld $30, %xmm13
  6133. pslld $25, %xmm14
  6134. pxor %xmm13, %xmm12
  6135. pxor %xmm14, %xmm12
  6136. movdqa %xmm12, %xmm13
  6137. psrldq $4, %xmm13
  6138. pslldq $12, %xmm12
  6139. pxor %xmm12, %xmm8
  6140. movdqa %xmm8, %xmm14
  6141. movdqa %xmm8, %xmm10
  6142. movdqa %xmm8, %xmm9
  6143. psrld $0x01, %xmm14
  6144. psrld $2, %xmm10
  6145. psrld $7, %xmm9
  6146. pxor %xmm10, %xmm14
  6147. pxor %xmm9, %xmm14
  6148. pxor %xmm13, %xmm14
  6149. pxor %xmm8, %xmm14
  6150. pxor %xmm14, %xmm6
  6151. pshufb L_aes_gcm_bswap_mask(%rip), %xmm6
  6152. movdqa %xmm15, %xmm0
  6153. pxor %xmm6, %xmm0
  6154. cmpl $16, %eax
  6155. je L_AES_GCM_decrypt_final_aesni_cmp_tag_16
  6156. subq $16, %rsp
  6157. xorq %rcx, %rcx
  6158. xorq %r12, %r12
  6159. movdqa %xmm0, (%rsp)
  6160. L_AES_GCM_decrypt_final_aesni_cmp_tag_loop:
  6161. movzbl (%rsp,%rcx,1), %r13d
  6162. xorb (%rsi,%rcx,1), %r13b
  6163. orb %r13b, %r12b
  6164. incl %ecx
  6165. cmpl %eax, %ecx
  6166. jne L_AES_GCM_decrypt_final_aesni_cmp_tag_loop
  6167. cmpb $0x00, %r12b
  6168. sete %r12b
  6169. addq $16, %rsp
  6170. xorq %rcx, %rcx
  6171. jmp L_AES_GCM_decrypt_final_aesni_cmp_tag_done
  6172. L_AES_GCM_decrypt_final_aesni_cmp_tag_16:
  6173. movdqu (%rsi), %xmm1
  6174. pcmpeqb %xmm1, %xmm0
  6175. pmovmskb %xmm0, %rdx
  6176. # %%edx == 0xFFFF then return 1 else => return 0
  6177. xorl %r12d, %r12d
  6178. cmpl $0xffff, %edx
  6179. sete %r12b
  6180. L_AES_GCM_decrypt_final_aesni_cmp_tag_done:
  6181. movl %r12d, (%rbp)
  6182. addq $16, %rsp
  6183. popq %r12
  6184. popq %rbp
  6185. popq %r13
  6186. repz retq
  6187. #ifndef __APPLE__
  6188. .size AES_GCM_decrypt_final_aesni,.-AES_GCM_decrypt_final_aesni
  6189. #endif /* __APPLE__ */
  6190. #endif /* WOLFSSL_AESGCM_STREAM */
  6191. #ifdef HAVE_INTEL_AVX1
  6192. #ifndef __APPLE__
  6193. .data
  6194. #else
  6195. .section __DATA,__data
  6196. #endif /* __APPLE__ */
  6197. #ifndef __APPLE__
  6198. .align 16
  6199. #else
  6200. .p2align 4
  6201. #endif /* __APPLE__ */
  6202. L_avx1_aes_gcm_one:
  6203. .quad 0x0, 0x1
  6204. #ifndef __APPLE__
  6205. .data
  6206. #else
  6207. .section __DATA,__data
  6208. #endif /* __APPLE__ */
  6209. #ifndef __APPLE__
  6210. .align 16
  6211. #else
  6212. .p2align 4
  6213. #endif /* __APPLE__ */
  6214. L_avx1_aes_gcm_two:
  6215. .quad 0x0, 0x2
  6216. #ifndef __APPLE__
  6217. .data
  6218. #else
  6219. .section __DATA,__data
  6220. #endif /* __APPLE__ */
  6221. #ifndef __APPLE__
  6222. .align 16
  6223. #else
  6224. .p2align 4
  6225. #endif /* __APPLE__ */
  6226. L_avx1_aes_gcm_three:
  6227. .quad 0x0, 0x3
  6228. #ifndef __APPLE__
  6229. .data
  6230. #else
  6231. .section __DATA,__data
  6232. #endif /* __APPLE__ */
  6233. #ifndef __APPLE__
  6234. .align 16
  6235. #else
  6236. .p2align 4
  6237. #endif /* __APPLE__ */
  6238. L_avx1_aes_gcm_four:
  6239. .quad 0x0, 0x4
  6240. #ifndef __APPLE__
  6241. .data
  6242. #else
  6243. .section __DATA,__data
  6244. #endif /* __APPLE__ */
  6245. #ifndef __APPLE__
  6246. .align 16
  6247. #else
  6248. .p2align 4
  6249. #endif /* __APPLE__ */
  6250. L_avx1_aes_gcm_five:
  6251. .quad 0x0, 0x5
  6252. #ifndef __APPLE__
  6253. .data
  6254. #else
  6255. .section __DATA,__data
  6256. #endif /* __APPLE__ */
  6257. #ifndef __APPLE__
  6258. .align 16
  6259. #else
  6260. .p2align 4
  6261. #endif /* __APPLE__ */
  6262. L_avx1_aes_gcm_six:
  6263. .quad 0x0, 0x6
  6264. #ifndef __APPLE__
  6265. .data
  6266. #else
  6267. .section __DATA,__data
  6268. #endif /* __APPLE__ */
  6269. #ifndef __APPLE__
  6270. .align 16
  6271. #else
  6272. .p2align 4
  6273. #endif /* __APPLE__ */
  6274. L_avx1_aes_gcm_seven:
  6275. .quad 0x0, 0x7
  6276. #ifndef __APPLE__
  6277. .data
  6278. #else
  6279. .section __DATA,__data
  6280. #endif /* __APPLE__ */
  6281. #ifndef __APPLE__
  6282. .align 16
  6283. #else
  6284. .p2align 4
  6285. #endif /* __APPLE__ */
  6286. L_avx1_aes_gcm_eight:
  6287. .quad 0x0, 0x8
  6288. #ifndef __APPLE__
  6289. .data
  6290. #else
  6291. .section __DATA,__data
  6292. #endif /* __APPLE__ */
  6293. #ifndef __APPLE__
  6294. .align 16
  6295. #else
  6296. .p2align 4
  6297. #endif /* __APPLE__ */
  6298. L_avx1_aes_gcm_bswap_epi64:
  6299. .quad 0x1020304050607, 0x8090a0b0c0d0e0f
  6300. #ifndef __APPLE__
  6301. .data
  6302. #else
  6303. .section __DATA,__data
  6304. #endif /* __APPLE__ */
  6305. #ifndef __APPLE__
  6306. .align 16
  6307. #else
  6308. .p2align 4
  6309. #endif /* __APPLE__ */
  6310. L_avx1_aes_gcm_bswap_mask:
  6311. .quad 0x8090a0b0c0d0e0f, 0x1020304050607
  6312. #ifndef __APPLE__
  6313. .data
  6314. #else
  6315. .section __DATA,__data
  6316. #endif /* __APPLE__ */
  6317. #ifndef __APPLE__
  6318. .align 16
  6319. #else
  6320. .p2align 4
  6321. #endif /* __APPLE__ */
  6322. L_avx1_aes_gcm_mod2_128:
  6323. .quad 0x1, 0xc200000000000000
  6324. #ifndef __APPLE__
  6325. .text
  6326. .globl AES_GCM_encrypt_avx1
  6327. .type AES_GCM_encrypt_avx1,@function
  6328. .align 16
  6329. AES_GCM_encrypt_avx1:
  6330. #else
  6331. .section __TEXT,__text
  6332. .globl _AES_GCM_encrypt_avx1
  6333. .p2align 4
  6334. _AES_GCM_encrypt_avx1:
  6335. #endif /* __APPLE__ */
  6336. pushq %r13
  6337. pushq %r12
  6338. pushq %rbx
  6339. pushq %r14
  6340. pushq %r15
  6341. movq %rdx, %r12
  6342. movq %rcx, %rax
  6343. movl 48(%rsp), %r11d
  6344. movl 56(%rsp), %ebx
  6345. movl 64(%rsp), %r14d
  6346. movq 72(%rsp), %r15
  6347. movl 80(%rsp), %r10d
  6348. subq $0xa0, %rsp
  6349. vpxor %xmm4, %xmm4, %xmm4
  6350. vpxor %xmm6, %xmm6, %xmm6
  6351. movl %ebx, %edx
  6352. cmpl $12, %edx
  6353. jne L_AES_GCM_encrypt_avx1_iv_not_12
  6354. # # Calculate values when IV is 12 bytes
  6355. # Set counter based on IV
  6356. movl $0x1000000, %ecx
  6357. vpinsrq $0x00, (%rax), %xmm4, %xmm4
  6358. vpinsrd $2, 8(%rax), %xmm4, %xmm4
  6359. vpinsrd $3, %ecx, %xmm4, %xmm4
  6360. # H = Encrypt X(=0) and T = Encrypt counter
  6361. vmovdqa (%r15), %xmm5
  6362. vpxor %xmm5, %xmm4, %xmm1
  6363. vmovdqa 16(%r15), %xmm7
  6364. vaesenc %xmm7, %xmm5, %xmm5
  6365. vaesenc %xmm7, %xmm1, %xmm1
  6366. vmovdqa 32(%r15), %xmm7
  6367. vaesenc %xmm7, %xmm5, %xmm5
  6368. vaesenc %xmm7, %xmm1, %xmm1
  6369. vmovdqa 48(%r15), %xmm7
  6370. vaesenc %xmm7, %xmm5, %xmm5
  6371. vaesenc %xmm7, %xmm1, %xmm1
  6372. vmovdqa 64(%r15), %xmm7
  6373. vaesenc %xmm7, %xmm5, %xmm5
  6374. vaesenc %xmm7, %xmm1, %xmm1
  6375. vmovdqa 80(%r15), %xmm7
  6376. vaesenc %xmm7, %xmm5, %xmm5
  6377. vaesenc %xmm7, %xmm1, %xmm1
  6378. vmovdqa 96(%r15), %xmm7
  6379. vaesenc %xmm7, %xmm5, %xmm5
  6380. vaesenc %xmm7, %xmm1, %xmm1
  6381. vmovdqa 112(%r15), %xmm7
  6382. vaesenc %xmm7, %xmm5, %xmm5
  6383. vaesenc %xmm7, %xmm1, %xmm1
  6384. vmovdqa 128(%r15), %xmm7
  6385. vaesenc %xmm7, %xmm5, %xmm5
  6386. vaesenc %xmm7, %xmm1, %xmm1
  6387. vmovdqa 144(%r15), %xmm7
  6388. vaesenc %xmm7, %xmm5, %xmm5
  6389. vaesenc %xmm7, %xmm1, %xmm1
  6390. cmpl $11, %r10d
  6391. vmovdqa 160(%r15), %xmm7
  6392. jl L_AES_GCM_encrypt_avx1_calc_iv_12_last
  6393. vaesenc %xmm7, %xmm5, %xmm5
  6394. vaesenc %xmm7, %xmm1, %xmm1
  6395. vmovdqa 176(%r15), %xmm7
  6396. vaesenc %xmm7, %xmm5, %xmm5
  6397. vaesenc %xmm7, %xmm1, %xmm1
  6398. cmpl $13, %r10d
  6399. vmovdqa 192(%r15), %xmm7
  6400. jl L_AES_GCM_encrypt_avx1_calc_iv_12_last
  6401. vaesenc %xmm7, %xmm5, %xmm5
  6402. vaesenc %xmm7, %xmm1, %xmm1
  6403. vmovdqa 208(%r15), %xmm7
  6404. vaesenc %xmm7, %xmm5, %xmm5
  6405. vaesenc %xmm7, %xmm1, %xmm1
  6406. vmovdqa 224(%r15), %xmm7
  6407. L_AES_GCM_encrypt_avx1_calc_iv_12_last:
  6408. vaesenclast %xmm7, %xmm5, %xmm5
  6409. vaesenclast %xmm7, %xmm1, %xmm1
  6410. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm5, %xmm5
  6411. vmovdqa %xmm1, 144(%rsp)
  6412. jmp L_AES_GCM_encrypt_avx1_iv_done
  6413. L_AES_GCM_encrypt_avx1_iv_not_12:
  6414. # Calculate values when IV is not 12 bytes
  6415. # H = Encrypt X(=0)
  6416. vmovdqa (%r15), %xmm5
  6417. vaesenc 16(%r15), %xmm5, %xmm5
  6418. vaesenc 32(%r15), %xmm5, %xmm5
  6419. vaesenc 48(%r15), %xmm5, %xmm5
  6420. vaesenc 64(%r15), %xmm5, %xmm5
  6421. vaesenc 80(%r15), %xmm5, %xmm5
  6422. vaesenc 96(%r15), %xmm5, %xmm5
  6423. vaesenc 112(%r15), %xmm5, %xmm5
  6424. vaesenc 128(%r15), %xmm5, %xmm5
  6425. vaesenc 144(%r15), %xmm5, %xmm5
  6426. cmpl $11, %r10d
  6427. vmovdqa 160(%r15), %xmm9
  6428. jl L_AES_GCM_encrypt_avx1_calc_iv_1_aesenc_avx_last
  6429. vaesenc %xmm9, %xmm5, %xmm5
  6430. vaesenc 176(%r15), %xmm5, %xmm5
  6431. cmpl $13, %r10d
  6432. vmovdqa 192(%r15), %xmm9
  6433. jl L_AES_GCM_encrypt_avx1_calc_iv_1_aesenc_avx_last
  6434. vaesenc %xmm9, %xmm5, %xmm5
  6435. vaesenc 208(%r15), %xmm5, %xmm5
  6436. vmovdqa 224(%r15), %xmm9
  6437. L_AES_GCM_encrypt_avx1_calc_iv_1_aesenc_avx_last:
  6438. vaesenclast %xmm9, %xmm5, %xmm5
  6439. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm5, %xmm5
  6440. # Calc counter
  6441. # Initialization vector
  6442. cmpl $0x00, %edx
  6443. movq $0x00, %rcx
  6444. je L_AES_GCM_encrypt_avx1_calc_iv_done
  6445. cmpl $16, %edx
  6446. jl L_AES_GCM_encrypt_avx1_calc_iv_lt16
  6447. andl $0xfffffff0, %edx
  6448. L_AES_GCM_encrypt_avx1_calc_iv_16_loop:
  6449. vmovdqu (%rax,%rcx,1), %xmm8
  6450. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm8, %xmm8
  6451. vpxor %xmm8, %xmm4, %xmm4
  6452. # ghash_gfmul_avx
  6453. vpshufd $0x4e, %xmm4, %xmm1
  6454. vpshufd $0x4e, %xmm5, %xmm2
  6455. vpclmulqdq $0x11, %xmm4, %xmm5, %xmm3
  6456. vpclmulqdq $0x00, %xmm4, %xmm5, %xmm0
  6457. vpxor %xmm4, %xmm1, %xmm1
  6458. vpxor %xmm5, %xmm2, %xmm2
  6459. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
  6460. vpxor %xmm0, %xmm1, %xmm1
  6461. vpxor %xmm3, %xmm1, %xmm1
  6462. vmovdqa %xmm0, %xmm7
  6463. vmovdqa %xmm3, %xmm4
  6464. vpslldq $8, %xmm1, %xmm2
  6465. vpsrldq $8, %xmm1, %xmm1
  6466. vpxor %xmm2, %xmm7, %xmm7
  6467. vpxor %xmm1, %xmm4, %xmm4
  6468. vpsrld $31, %xmm7, %xmm0
  6469. vpsrld $31, %xmm4, %xmm1
  6470. vpslld $0x01, %xmm7, %xmm7
  6471. vpslld $0x01, %xmm4, %xmm4
  6472. vpsrldq $12, %xmm0, %xmm2
  6473. vpslldq $4, %xmm0, %xmm0
  6474. vpslldq $4, %xmm1, %xmm1
  6475. vpor %xmm2, %xmm4, %xmm4
  6476. vpor %xmm0, %xmm7, %xmm7
  6477. vpor %xmm1, %xmm4, %xmm4
  6478. vpslld $31, %xmm7, %xmm0
  6479. vpslld $30, %xmm7, %xmm1
  6480. vpslld $25, %xmm7, %xmm2
  6481. vpxor %xmm1, %xmm0, %xmm0
  6482. vpxor %xmm2, %xmm0, %xmm0
  6483. vmovdqa %xmm0, %xmm1
  6484. vpsrldq $4, %xmm1, %xmm1
  6485. vpslldq $12, %xmm0, %xmm0
  6486. vpxor %xmm0, %xmm7, %xmm7
  6487. vpsrld $0x01, %xmm7, %xmm2
  6488. vpsrld $2, %xmm7, %xmm3
  6489. vpsrld $7, %xmm7, %xmm0
  6490. vpxor %xmm3, %xmm2, %xmm2
  6491. vpxor %xmm0, %xmm2, %xmm2
  6492. vpxor %xmm1, %xmm2, %xmm2
  6493. vpxor %xmm7, %xmm2, %xmm2
  6494. vpxor %xmm2, %xmm4, %xmm4
  6495. addl $16, %ecx
  6496. cmpl %edx, %ecx
  6497. jl L_AES_GCM_encrypt_avx1_calc_iv_16_loop
  6498. movl %ebx, %edx
  6499. cmpl %edx, %ecx
  6500. je L_AES_GCM_encrypt_avx1_calc_iv_done
  6501. L_AES_GCM_encrypt_avx1_calc_iv_lt16:
  6502. subq $16, %rsp
  6503. vpxor %xmm8, %xmm8, %xmm8
  6504. xorl %ebx, %ebx
  6505. vmovdqu %xmm8, (%rsp)
  6506. L_AES_GCM_encrypt_avx1_calc_iv_loop:
  6507. movzbl (%rax,%rcx,1), %r13d
  6508. movb %r13b, (%rsp,%rbx,1)
  6509. incl %ecx
  6510. incl %ebx
  6511. cmpl %edx, %ecx
  6512. jl L_AES_GCM_encrypt_avx1_calc_iv_loop
  6513. vmovdqu (%rsp), %xmm8
  6514. addq $16, %rsp
  6515. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm8, %xmm8
  6516. vpxor %xmm8, %xmm4, %xmm4
  6517. # ghash_gfmul_avx
  6518. vpshufd $0x4e, %xmm4, %xmm1
  6519. vpshufd $0x4e, %xmm5, %xmm2
  6520. vpclmulqdq $0x11, %xmm4, %xmm5, %xmm3
  6521. vpclmulqdq $0x00, %xmm4, %xmm5, %xmm0
  6522. vpxor %xmm4, %xmm1, %xmm1
  6523. vpxor %xmm5, %xmm2, %xmm2
  6524. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
  6525. vpxor %xmm0, %xmm1, %xmm1
  6526. vpxor %xmm3, %xmm1, %xmm1
  6527. vmovdqa %xmm0, %xmm7
  6528. vmovdqa %xmm3, %xmm4
  6529. vpslldq $8, %xmm1, %xmm2
  6530. vpsrldq $8, %xmm1, %xmm1
  6531. vpxor %xmm2, %xmm7, %xmm7
  6532. vpxor %xmm1, %xmm4, %xmm4
  6533. vpsrld $31, %xmm7, %xmm0
  6534. vpsrld $31, %xmm4, %xmm1
  6535. vpslld $0x01, %xmm7, %xmm7
  6536. vpslld $0x01, %xmm4, %xmm4
  6537. vpsrldq $12, %xmm0, %xmm2
  6538. vpslldq $4, %xmm0, %xmm0
  6539. vpslldq $4, %xmm1, %xmm1
  6540. vpor %xmm2, %xmm4, %xmm4
  6541. vpor %xmm0, %xmm7, %xmm7
  6542. vpor %xmm1, %xmm4, %xmm4
  6543. vpslld $31, %xmm7, %xmm0
  6544. vpslld $30, %xmm7, %xmm1
  6545. vpslld $25, %xmm7, %xmm2
  6546. vpxor %xmm1, %xmm0, %xmm0
  6547. vpxor %xmm2, %xmm0, %xmm0
  6548. vmovdqa %xmm0, %xmm1
  6549. vpsrldq $4, %xmm1, %xmm1
  6550. vpslldq $12, %xmm0, %xmm0
  6551. vpxor %xmm0, %xmm7, %xmm7
  6552. vpsrld $0x01, %xmm7, %xmm2
  6553. vpsrld $2, %xmm7, %xmm3
  6554. vpsrld $7, %xmm7, %xmm0
  6555. vpxor %xmm3, %xmm2, %xmm2
  6556. vpxor %xmm0, %xmm2, %xmm2
  6557. vpxor %xmm1, %xmm2, %xmm2
  6558. vpxor %xmm7, %xmm2, %xmm2
  6559. vpxor %xmm2, %xmm4, %xmm4
  6560. L_AES_GCM_encrypt_avx1_calc_iv_done:
  6561. # T = Encrypt counter
  6562. vpxor %xmm0, %xmm0, %xmm0
  6563. shll $3, %edx
  6564. vpinsrq $0x00, %rdx, %xmm0, %xmm0
  6565. vpxor %xmm0, %xmm4, %xmm4
  6566. # ghash_gfmul_avx
  6567. vpshufd $0x4e, %xmm4, %xmm1
  6568. vpshufd $0x4e, %xmm5, %xmm2
  6569. vpclmulqdq $0x11, %xmm4, %xmm5, %xmm3
  6570. vpclmulqdq $0x00, %xmm4, %xmm5, %xmm0
  6571. vpxor %xmm4, %xmm1, %xmm1
  6572. vpxor %xmm5, %xmm2, %xmm2
  6573. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
  6574. vpxor %xmm0, %xmm1, %xmm1
  6575. vpxor %xmm3, %xmm1, %xmm1
  6576. vmovdqa %xmm0, %xmm7
  6577. vmovdqa %xmm3, %xmm4
  6578. vpslldq $8, %xmm1, %xmm2
  6579. vpsrldq $8, %xmm1, %xmm1
  6580. vpxor %xmm2, %xmm7, %xmm7
  6581. vpxor %xmm1, %xmm4, %xmm4
  6582. vpsrld $31, %xmm7, %xmm0
  6583. vpsrld $31, %xmm4, %xmm1
  6584. vpslld $0x01, %xmm7, %xmm7
  6585. vpslld $0x01, %xmm4, %xmm4
  6586. vpsrldq $12, %xmm0, %xmm2
  6587. vpslldq $4, %xmm0, %xmm0
  6588. vpslldq $4, %xmm1, %xmm1
  6589. vpor %xmm2, %xmm4, %xmm4
  6590. vpor %xmm0, %xmm7, %xmm7
  6591. vpor %xmm1, %xmm4, %xmm4
  6592. vpslld $31, %xmm7, %xmm0
  6593. vpslld $30, %xmm7, %xmm1
  6594. vpslld $25, %xmm7, %xmm2
  6595. vpxor %xmm1, %xmm0, %xmm0
  6596. vpxor %xmm2, %xmm0, %xmm0
  6597. vmovdqa %xmm0, %xmm1
  6598. vpsrldq $4, %xmm1, %xmm1
  6599. vpslldq $12, %xmm0, %xmm0
  6600. vpxor %xmm0, %xmm7, %xmm7
  6601. vpsrld $0x01, %xmm7, %xmm2
  6602. vpsrld $2, %xmm7, %xmm3
  6603. vpsrld $7, %xmm7, %xmm0
  6604. vpxor %xmm3, %xmm2, %xmm2
  6605. vpxor %xmm0, %xmm2, %xmm2
  6606. vpxor %xmm1, %xmm2, %xmm2
  6607. vpxor %xmm7, %xmm2, %xmm2
  6608. vpxor %xmm2, %xmm4, %xmm4
  6609. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm4, %xmm4
  6610. # Encrypt counter
  6611. vmovdqa (%r15), %xmm8
  6612. vpxor %xmm4, %xmm8, %xmm8
  6613. vaesenc 16(%r15), %xmm8, %xmm8
  6614. vaesenc 32(%r15), %xmm8, %xmm8
  6615. vaesenc 48(%r15), %xmm8, %xmm8
  6616. vaesenc 64(%r15), %xmm8, %xmm8
  6617. vaesenc 80(%r15), %xmm8, %xmm8
  6618. vaesenc 96(%r15), %xmm8, %xmm8
  6619. vaesenc 112(%r15), %xmm8, %xmm8
  6620. vaesenc 128(%r15), %xmm8, %xmm8
  6621. vaesenc 144(%r15), %xmm8, %xmm8
  6622. cmpl $11, %r10d
  6623. vmovdqa 160(%r15), %xmm9
  6624. jl L_AES_GCM_encrypt_avx1_calc_iv_2_aesenc_avx_last
  6625. vaesenc %xmm9, %xmm8, %xmm8
  6626. vaesenc 176(%r15), %xmm8, %xmm8
  6627. cmpl $13, %r10d
  6628. vmovdqa 192(%r15), %xmm9
  6629. jl L_AES_GCM_encrypt_avx1_calc_iv_2_aesenc_avx_last
  6630. vaesenc %xmm9, %xmm8, %xmm8
  6631. vaesenc 208(%r15), %xmm8, %xmm8
  6632. vmovdqa 224(%r15), %xmm9
  6633. L_AES_GCM_encrypt_avx1_calc_iv_2_aesenc_avx_last:
  6634. vaesenclast %xmm9, %xmm8, %xmm8
  6635. vmovdqa %xmm8, 144(%rsp)
  6636. L_AES_GCM_encrypt_avx1_iv_done:
  6637. # Additional authentication data
  6638. movl %r11d, %edx
  6639. cmpl $0x00, %edx
  6640. je L_AES_GCM_encrypt_avx1_calc_aad_done
  6641. xorl %ecx, %ecx
  6642. cmpl $16, %edx
  6643. jl L_AES_GCM_encrypt_avx1_calc_aad_lt16
  6644. andl $0xfffffff0, %edx
  6645. L_AES_GCM_encrypt_avx1_calc_aad_16_loop:
  6646. vmovdqu (%r12,%rcx,1), %xmm8
  6647. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm8, %xmm8
  6648. vpxor %xmm8, %xmm6, %xmm6
  6649. # ghash_gfmul_avx
  6650. vpshufd $0x4e, %xmm6, %xmm1
  6651. vpshufd $0x4e, %xmm5, %xmm2
  6652. vpclmulqdq $0x11, %xmm6, %xmm5, %xmm3
  6653. vpclmulqdq $0x00, %xmm6, %xmm5, %xmm0
  6654. vpxor %xmm6, %xmm1, %xmm1
  6655. vpxor %xmm5, %xmm2, %xmm2
  6656. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
  6657. vpxor %xmm0, %xmm1, %xmm1
  6658. vpxor %xmm3, %xmm1, %xmm1
  6659. vmovdqa %xmm0, %xmm7
  6660. vmovdqa %xmm3, %xmm6
  6661. vpslldq $8, %xmm1, %xmm2
  6662. vpsrldq $8, %xmm1, %xmm1
  6663. vpxor %xmm2, %xmm7, %xmm7
  6664. vpxor %xmm1, %xmm6, %xmm6
  6665. vpsrld $31, %xmm7, %xmm0
  6666. vpsrld $31, %xmm6, %xmm1
  6667. vpslld $0x01, %xmm7, %xmm7
  6668. vpslld $0x01, %xmm6, %xmm6
  6669. vpsrldq $12, %xmm0, %xmm2
  6670. vpslldq $4, %xmm0, %xmm0
  6671. vpslldq $4, %xmm1, %xmm1
  6672. vpor %xmm2, %xmm6, %xmm6
  6673. vpor %xmm0, %xmm7, %xmm7
  6674. vpor %xmm1, %xmm6, %xmm6
  6675. vpslld $31, %xmm7, %xmm0
  6676. vpslld $30, %xmm7, %xmm1
  6677. vpslld $25, %xmm7, %xmm2
  6678. vpxor %xmm1, %xmm0, %xmm0
  6679. vpxor %xmm2, %xmm0, %xmm0
  6680. vmovdqa %xmm0, %xmm1
  6681. vpsrldq $4, %xmm1, %xmm1
  6682. vpslldq $12, %xmm0, %xmm0
  6683. vpxor %xmm0, %xmm7, %xmm7
  6684. vpsrld $0x01, %xmm7, %xmm2
  6685. vpsrld $2, %xmm7, %xmm3
  6686. vpsrld $7, %xmm7, %xmm0
  6687. vpxor %xmm3, %xmm2, %xmm2
  6688. vpxor %xmm0, %xmm2, %xmm2
  6689. vpxor %xmm1, %xmm2, %xmm2
  6690. vpxor %xmm7, %xmm2, %xmm2
  6691. vpxor %xmm2, %xmm6, %xmm6
  6692. addl $16, %ecx
  6693. cmpl %edx, %ecx
  6694. jl L_AES_GCM_encrypt_avx1_calc_aad_16_loop
  6695. movl %r11d, %edx
  6696. cmpl %edx, %ecx
  6697. je L_AES_GCM_encrypt_avx1_calc_aad_done
  6698. L_AES_GCM_encrypt_avx1_calc_aad_lt16:
  6699. subq $16, %rsp
  6700. vpxor %xmm8, %xmm8, %xmm8
  6701. xorl %ebx, %ebx
  6702. vmovdqu %xmm8, (%rsp)
  6703. L_AES_GCM_encrypt_avx1_calc_aad_loop:
  6704. movzbl (%r12,%rcx,1), %r13d
  6705. movb %r13b, (%rsp,%rbx,1)
  6706. incl %ecx
  6707. incl %ebx
  6708. cmpl %edx, %ecx
  6709. jl L_AES_GCM_encrypt_avx1_calc_aad_loop
  6710. vmovdqu (%rsp), %xmm8
  6711. addq $16, %rsp
  6712. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm8, %xmm8
  6713. vpxor %xmm8, %xmm6, %xmm6
  6714. # ghash_gfmul_avx
  6715. vpshufd $0x4e, %xmm6, %xmm1
  6716. vpshufd $0x4e, %xmm5, %xmm2
  6717. vpclmulqdq $0x11, %xmm6, %xmm5, %xmm3
  6718. vpclmulqdq $0x00, %xmm6, %xmm5, %xmm0
  6719. vpxor %xmm6, %xmm1, %xmm1
  6720. vpxor %xmm5, %xmm2, %xmm2
  6721. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
  6722. vpxor %xmm0, %xmm1, %xmm1
  6723. vpxor %xmm3, %xmm1, %xmm1
  6724. vmovdqa %xmm0, %xmm7
  6725. vmovdqa %xmm3, %xmm6
  6726. vpslldq $8, %xmm1, %xmm2
  6727. vpsrldq $8, %xmm1, %xmm1
  6728. vpxor %xmm2, %xmm7, %xmm7
  6729. vpxor %xmm1, %xmm6, %xmm6
  6730. vpsrld $31, %xmm7, %xmm0
  6731. vpsrld $31, %xmm6, %xmm1
  6732. vpslld $0x01, %xmm7, %xmm7
  6733. vpslld $0x01, %xmm6, %xmm6
  6734. vpsrldq $12, %xmm0, %xmm2
  6735. vpslldq $4, %xmm0, %xmm0
  6736. vpslldq $4, %xmm1, %xmm1
  6737. vpor %xmm2, %xmm6, %xmm6
  6738. vpor %xmm0, %xmm7, %xmm7
  6739. vpor %xmm1, %xmm6, %xmm6
  6740. vpslld $31, %xmm7, %xmm0
  6741. vpslld $30, %xmm7, %xmm1
  6742. vpslld $25, %xmm7, %xmm2
  6743. vpxor %xmm1, %xmm0, %xmm0
  6744. vpxor %xmm2, %xmm0, %xmm0
  6745. vmovdqa %xmm0, %xmm1
  6746. vpsrldq $4, %xmm1, %xmm1
  6747. vpslldq $12, %xmm0, %xmm0
  6748. vpxor %xmm0, %xmm7, %xmm7
  6749. vpsrld $0x01, %xmm7, %xmm2
  6750. vpsrld $2, %xmm7, %xmm3
  6751. vpsrld $7, %xmm7, %xmm0
  6752. vpxor %xmm3, %xmm2, %xmm2
  6753. vpxor %xmm0, %xmm2, %xmm2
  6754. vpxor %xmm1, %xmm2, %xmm2
  6755. vpxor %xmm7, %xmm2, %xmm2
  6756. vpxor %xmm2, %xmm6, %xmm6
  6757. L_AES_GCM_encrypt_avx1_calc_aad_done:
  6758. # Calculate counter and H
  6759. vpsrlq $63, %xmm5, %xmm9
  6760. vpsllq $0x01, %xmm5, %xmm8
  6761. vpslldq $8, %xmm9, %xmm9
  6762. vpor %xmm9, %xmm8, %xmm8
  6763. vpshufd $0xff, %xmm5, %xmm5
  6764. vpsrad $31, %xmm5, %xmm5
  6765. vpshufb L_avx1_aes_gcm_bswap_epi64(%rip), %xmm4, %xmm4
  6766. vpand L_avx1_aes_gcm_mod2_128(%rip), %xmm5, %xmm5
  6767. vpaddd L_avx1_aes_gcm_one(%rip), %xmm4, %xmm4
  6768. vpxor %xmm8, %xmm5, %xmm5
  6769. vmovdqa %xmm4, 128(%rsp)
  6770. xorl %ebx, %ebx
  6771. cmpl $0x80, %r9d
  6772. movl %r9d, %r13d
  6773. jl L_AES_GCM_encrypt_avx1_done_128
  6774. andl $0xffffff80, %r13d
  6775. vmovdqa %xmm6, %xmm2
  6776. # H ^ 1
  6777. vmovdqa %xmm5, (%rsp)
  6778. # H ^ 2
  6779. vpclmulqdq $0x00, %xmm5, %xmm5, %xmm8
  6780. vpclmulqdq $0x11, %xmm5, %xmm5, %xmm0
  6781. vpslld $31, %xmm8, %xmm12
  6782. vpslld $30, %xmm8, %xmm13
  6783. vpslld $25, %xmm8, %xmm14
  6784. vpxor %xmm13, %xmm12, %xmm12
  6785. vpxor %xmm14, %xmm12, %xmm12
  6786. vpsrldq $4, %xmm12, %xmm13
  6787. vpslldq $12, %xmm12, %xmm12
  6788. vpxor %xmm12, %xmm8, %xmm8
  6789. vpsrld $0x01, %xmm8, %xmm14
  6790. vpsrld $2, %xmm8, %xmm10
  6791. vpsrld $7, %xmm8, %xmm9
  6792. vpxor %xmm10, %xmm14, %xmm14
  6793. vpxor %xmm9, %xmm14, %xmm14
  6794. vpxor %xmm13, %xmm14, %xmm14
  6795. vpxor %xmm8, %xmm14, %xmm14
  6796. vpxor %xmm14, %xmm0, %xmm0
  6797. vmovdqa %xmm0, 16(%rsp)
  6798. # H ^ 3
  6799. # ghash_gfmul_red_avx
  6800. vpshufd $0x4e, %xmm5, %xmm9
  6801. vpshufd $0x4e, %xmm0, %xmm10
  6802. vpclmulqdq $0x11, %xmm5, %xmm0, %xmm11
  6803. vpclmulqdq $0x00, %xmm5, %xmm0, %xmm8
  6804. vpxor %xmm5, %xmm9, %xmm9
  6805. vpxor %xmm0, %xmm10, %xmm10
  6806. vpclmulqdq $0x00, %xmm10, %xmm9, %xmm9
  6807. vpxor %xmm8, %xmm9, %xmm9
  6808. vpxor %xmm11, %xmm9, %xmm9
  6809. vpslldq $8, %xmm9, %xmm10
  6810. vpsrldq $8, %xmm9, %xmm9
  6811. vpxor %xmm10, %xmm8, %xmm8
  6812. vpxor %xmm9, %xmm11, %xmm1
  6813. vpslld $31, %xmm8, %xmm12
  6814. vpslld $30, %xmm8, %xmm13
  6815. vpslld $25, %xmm8, %xmm14
  6816. vpxor %xmm13, %xmm12, %xmm12
  6817. vpxor %xmm14, %xmm12, %xmm12
  6818. vpsrldq $4, %xmm12, %xmm13
  6819. vpslldq $12, %xmm12, %xmm12
  6820. vpxor %xmm12, %xmm8, %xmm8
  6821. vpsrld $0x01, %xmm8, %xmm14
  6822. vpsrld $2, %xmm8, %xmm10
  6823. vpsrld $7, %xmm8, %xmm9
  6824. vpxor %xmm10, %xmm14, %xmm14
  6825. vpxor %xmm9, %xmm14, %xmm14
  6826. vpxor %xmm13, %xmm14, %xmm14
  6827. vpxor %xmm8, %xmm14, %xmm14
  6828. vpxor %xmm14, %xmm1, %xmm1
  6829. vmovdqa %xmm1, 32(%rsp)
  6830. # H ^ 4
  6831. vpclmulqdq $0x00, %xmm0, %xmm0, %xmm8
  6832. vpclmulqdq $0x11, %xmm0, %xmm0, %xmm3
  6833. vpslld $31, %xmm8, %xmm12
  6834. vpslld $30, %xmm8, %xmm13
  6835. vpslld $25, %xmm8, %xmm14
  6836. vpxor %xmm13, %xmm12, %xmm12
  6837. vpxor %xmm14, %xmm12, %xmm12
  6838. vpsrldq $4, %xmm12, %xmm13
  6839. vpslldq $12, %xmm12, %xmm12
  6840. vpxor %xmm12, %xmm8, %xmm8
  6841. vpsrld $0x01, %xmm8, %xmm14
  6842. vpsrld $2, %xmm8, %xmm10
  6843. vpsrld $7, %xmm8, %xmm9
  6844. vpxor %xmm10, %xmm14, %xmm14
  6845. vpxor %xmm9, %xmm14, %xmm14
  6846. vpxor %xmm13, %xmm14, %xmm14
  6847. vpxor %xmm8, %xmm14, %xmm14
  6848. vpxor %xmm14, %xmm3, %xmm3
  6849. vmovdqa %xmm3, 48(%rsp)
  6850. # H ^ 5
  6851. # ghash_gfmul_red_avx
  6852. vpshufd $0x4e, %xmm0, %xmm9
  6853. vpshufd $0x4e, %xmm1, %xmm10
  6854. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm11
  6855. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm8
  6856. vpxor %xmm0, %xmm9, %xmm9
  6857. vpxor %xmm1, %xmm10, %xmm10
  6858. vpclmulqdq $0x00, %xmm10, %xmm9, %xmm9
  6859. vpxor %xmm8, %xmm9, %xmm9
  6860. vpxor %xmm11, %xmm9, %xmm9
  6861. vpslldq $8, %xmm9, %xmm10
  6862. vpsrldq $8, %xmm9, %xmm9
  6863. vpxor %xmm10, %xmm8, %xmm8
  6864. vpxor %xmm9, %xmm11, %xmm7
  6865. vpslld $31, %xmm8, %xmm12
  6866. vpslld $30, %xmm8, %xmm13
  6867. vpslld $25, %xmm8, %xmm14
  6868. vpxor %xmm13, %xmm12, %xmm12
  6869. vpxor %xmm14, %xmm12, %xmm12
  6870. vpsrldq $4, %xmm12, %xmm13
  6871. vpslldq $12, %xmm12, %xmm12
  6872. vpxor %xmm12, %xmm8, %xmm8
  6873. vpsrld $0x01, %xmm8, %xmm14
  6874. vpsrld $2, %xmm8, %xmm10
  6875. vpsrld $7, %xmm8, %xmm9
  6876. vpxor %xmm10, %xmm14, %xmm14
  6877. vpxor %xmm9, %xmm14, %xmm14
  6878. vpxor %xmm13, %xmm14, %xmm14
  6879. vpxor %xmm8, %xmm14, %xmm14
  6880. vpxor %xmm14, %xmm7, %xmm7
  6881. vmovdqa %xmm7, 64(%rsp)
  6882. # H ^ 6
  6883. vpclmulqdq $0x00, %xmm1, %xmm1, %xmm8
  6884. vpclmulqdq $0x11, %xmm1, %xmm1, %xmm7
  6885. vpslld $31, %xmm8, %xmm12
  6886. vpslld $30, %xmm8, %xmm13
  6887. vpslld $25, %xmm8, %xmm14
  6888. vpxor %xmm13, %xmm12, %xmm12
  6889. vpxor %xmm14, %xmm12, %xmm12
  6890. vpsrldq $4, %xmm12, %xmm13
  6891. vpslldq $12, %xmm12, %xmm12
  6892. vpxor %xmm12, %xmm8, %xmm8
  6893. vpsrld $0x01, %xmm8, %xmm14
  6894. vpsrld $2, %xmm8, %xmm10
  6895. vpsrld $7, %xmm8, %xmm9
  6896. vpxor %xmm10, %xmm14, %xmm14
  6897. vpxor %xmm9, %xmm14, %xmm14
  6898. vpxor %xmm13, %xmm14, %xmm14
  6899. vpxor %xmm8, %xmm14, %xmm14
  6900. vpxor %xmm14, %xmm7, %xmm7
  6901. vmovdqa %xmm7, 80(%rsp)
  6902. # H ^ 7
  6903. # ghash_gfmul_red_avx
  6904. vpshufd $0x4e, %xmm1, %xmm9
  6905. vpshufd $0x4e, %xmm3, %xmm10
  6906. vpclmulqdq $0x11, %xmm1, %xmm3, %xmm11
  6907. vpclmulqdq $0x00, %xmm1, %xmm3, %xmm8
  6908. vpxor %xmm1, %xmm9, %xmm9
  6909. vpxor %xmm3, %xmm10, %xmm10
  6910. vpclmulqdq $0x00, %xmm10, %xmm9, %xmm9
  6911. vpxor %xmm8, %xmm9, %xmm9
  6912. vpxor %xmm11, %xmm9, %xmm9
  6913. vpslldq $8, %xmm9, %xmm10
  6914. vpsrldq $8, %xmm9, %xmm9
  6915. vpxor %xmm10, %xmm8, %xmm8
  6916. vpxor %xmm9, %xmm11, %xmm7
  6917. vpslld $31, %xmm8, %xmm12
  6918. vpslld $30, %xmm8, %xmm13
  6919. vpslld $25, %xmm8, %xmm14
  6920. vpxor %xmm13, %xmm12, %xmm12
  6921. vpxor %xmm14, %xmm12, %xmm12
  6922. vpsrldq $4, %xmm12, %xmm13
  6923. vpslldq $12, %xmm12, %xmm12
  6924. vpxor %xmm12, %xmm8, %xmm8
  6925. vpsrld $0x01, %xmm8, %xmm14
  6926. vpsrld $2, %xmm8, %xmm10
  6927. vpsrld $7, %xmm8, %xmm9
  6928. vpxor %xmm10, %xmm14, %xmm14
  6929. vpxor %xmm9, %xmm14, %xmm14
  6930. vpxor %xmm13, %xmm14, %xmm14
  6931. vpxor %xmm8, %xmm14, %xmm14
  6932. vpxor %xmm14, %xmm7, %xmm7
  6933. vmovdqa %xmm7, 96(%rsp)
  6934. # H ^ 8
  6935. vpclmulqdq $0x00, %xmm3, %xmm3, %xmm8
  6936. vpclmulqdq $0x11, %xmm3, %xmm3, %xmm7
  6937. vpslld $31, %xmm8, %xmm12
  6938. vpslld $30, %xmm8, %xmm13
  6939. vpslld $25, %xmm8, %xmm14
  6940. vpxor %xmm13, %xmm12, %xmm12
  6941. vpxor %xmm14, %xmm12, %xmm12
  6942. vpsrldq $4, %xmm12, %xmm13
  6943. vpslldq $12, %xmm12, %xmm12
  6944. vpxor %xmm12, %xmm8, %xmm8
  6945. vpsrld $0x01, %xmm8, %xmm14
  6946. vpsrld $2, %xmm8, %xmm10
  6947. vpsrld $7, %xmm8, %xmm9
  6948. vpxor %xmm10, %xmm14, %xmm14
  6949. vpxor %xmm9, %xmm14, %xmm14
  6950. vpxor %xmm13, %xmm14, %xmm14
  6951. vpxor %xmm8, %xmm14, %xmm14
  6952. vpxor %xmm14, %xmm7, %xmm7
  6953. vmovdqa %xmm7, 112(%rsp)
  6954. # First 128 bytes of input
  6955. vmovdqa 128(%rsp), %xmm0
  6956. vmovdqa L_avx1_aes_gcm_bswap_epi64(%rip), %xmm1
  6957. vpshufb %xmm1, %xmm0, %xmm8
  6958. vpaddd L_avx1_aes_gcm_one(%rip), %xmm0, %xmm9
  6959. vpshufb %xmm1, %xmm9, %xmm9
  6960. vpaddd L_avx1_aes_gcm_two(%rip), %xmm0, %xmm10
  6961. vpshufb %xmm1, %xmm10, %xmm10
  6962. vpaddd L_avx1_aes_gcm_three(%rip), %xmm0, %xmm11
  6963. vpshufb %xmm1, %xmm11, %xmm11
  6964. vpaddd L_avx1_aes_gcm_four(%rip), %xmm0, %xmm12
  6965. vpshufb %xmm1, %xmm12, %xmm12
  6966. vpaddd L_avx1_aes_gcm_five(%rip), %xmm0, %xmm13
  6967. vpshufb %xmm1, %xmm13, %xmm13
  6968. vpaddd L_avx1_aes_gcm_six(%rip), %xmm0, %xmm14
  6969. vpshufb %xmm1, %xmm14, %xmm14
  6970. vpaddd L_avx1_aes_gcm_seven(%rip), %xmm0, %xmm15
  6971. vpshufb %xmm1, %xmm15, %xmm15
  6972. vpaddd L_avx1_aes_gcm_eight(%rip), %xmm0, %xmm0
  6973. vmovdqa (%r15), %xmm7
  6974. vmovdqa %xmm0, 128(%rsp)
  6975. vpxor %xmm7, %xmm8, %xmm8
  6976. vpxor %xmm7, %xmm9, %xmm9
  6977. vpxor %xmm7, %xmm10, %xmm10
  6978. vpxor %xmm7, %xmm11, %xmm11
  6979. vpxor %xmm7, %xmm12, %xmm12
  6980. vpxor %xmm7, %xmm13, %xmm13
  6981. vpxor %xmm7, %xmm14, %xmm14
  6982. vpxor %xmm7, %xmm15, %xmm15
  6983. vmovdqa 16(%r15), %xmm7
  6984. vaesenc %xmm7, %xmm8, %xmm8
  6985. vaesenc %xmm7, %xmm9, %xmm9
  6986. vaesenc %xmm7, %xmm10, %xmm10
  6987. vaesenc %xmm7, %xmm11, %xmm11
  6988. vaesenc %xmm7, %xmm12, %xmm12
  6989. vaesenc %xmm7, %xmm13, %xmm13
  6990. vaesenc %xmm7, %xmm14, %xmm14
  6991. vaesenc %xmm7, %xmm15, %xmm15
  6992. vmovdqa 32(%r15), %xmm7
  6993. vaesenc %xmm7, %xmm8, %xmm8
  6994. vaesenc %xmm7, %xmm9, %xmm9
  6995. vaesenc %xmm7, %xmm10, %xmm10
  6996. vaesenc %xmm7, %xmm11, %xmm11
  6997. vaesenc %xmm7, %xmm12, %xmm12
  6998. vaesenc %xmm7, %xmm13, %xmm13
  6999. vaesenc %xmm7, %xmm14, %xmm14
  7000. vaesenc %xmm7, %xmm15, %xmm15
  7001. vmovdqa 48(%r15), %xmm7
  7002. vaesenc %xmm7, %xmm8, %xmm8
  7003. vaesenc %xmm7, %xmm9, %xmm9
  7004. vaesenc %xmm7, %xmm10, %xmm10
  7005. vaesenc %xmm7, %xmm11, %xmm11
  7006. vaesenc %xmm7, %xmm12, %xmm12
  7007. vaesenc %xmm7, %xmm13, %xmm13
  7008. vaesenc %xmm7, %xmm14, %xmm14
  7009. vaesenc %xmm7, %xmm15, %xmm15
  7010. vmovdqa 64(%r15), %xmm7
  7011. vaesenc %xmm7, %xmm8, %xmm8
  7012. vaesenc %xmm7, %xmm9, %xmm9
  7013. vaesenc %xmm7, %xmm10, %xmm10
  7014. vaesenc %xmm7, %xmm11, %xmm11
  7015. vaesenc %xmm7, %xmm12, %xmm12
  7016. vaesenc %xmm7, %xmm13, %xmm13
  7017. vaesenc %xmm7, %xmm14, %xmm14
  7018. vaesenc %xmm7, %xmm15, %xmm15
  7019. vmovdqa 80(%r15), %xmm7
  7020. vaesenc %xmm7, %xmm8, %xmm8
  7021. vaesenc %xmm7, %xmm9, %xmm9
  7022. vaesenc %xmm7, %xmm10, %xmm10
  7023. vaesenc %xmm7, %xmm11, %xmm11
  7024. vaesenc %xmm7, %xmm12, %xmm12
  7025. vaesenc %xmm7, %xmm13, %xmm13
  7026. vaesenc %xmm7, %xmm14, %xmm14
  7027. vaesenc %xmm7, %xmm15, %xmm15
  7028. vmovdqa 96(%r15), %xmm7
  7029. vaesenc %xmm7, %xmm8, %xmm8
  7030. vaesenc %xmm7, %xmm9, %xmm9
  7031. vaesenc %xmm7, %xmm10, %xmm10
  7032. vaesenc %xmm7, %xmm11, %xmm11
  7033. vaesenc %xmm7, %xmm12, %xmm12
  7034. vaesenc %xmm7, %xmm13, %xmm13
  7035. vaesenc %xmm7, %xmm14, %xmm14
  7036. vaesenc %xmm7, %xmm15, %xmm15
  7037. vmovdqa 112(%r15), %xmm7
  7038. vaesenc %xmm7, %xmm8, %xmm8
  7039. vaesenc %xmm7, %xmm9, %xmm9
  7040. vaesenc %xmm7, %xmm10, %xmm10
  7041. vaesenc %xmm7, %xmm11, %xmm11
  7042. vaesenc %xmm7, %xmm12, %xmm12
  7043. vaesenc %xmm7, %xmm13, %xmm13
  7044. vaesenc %xmm7, %xmm14, %xmm14
  7045. vaesenc %xmm7, %xmm15, %xmm15
  7046. vmovdqa 128(%r15), %xmm7
  7047. vaesenc %xmm7, %xmm8, %xmm8
  7048. vaesenc %xmm7, %xmm9, %xmm9
  7049. vaesenc %xmm7, %xmm10, %xmm10
  7050. vaesenc %xmm7, %xmm11, %xmm11
  7051. vaesenc %xmm7, %xmm12, %xmm12
  7052. vaesenc %xmm7, %xmm13, %xmm13
  7053. vaesenc %xmm7, %xmm14, %xmm14
  7054. vaesenc %xmm7, %xmm15, %xmm15
  7055. vmovdqa 144(%r15), %xmm7
  7056. vaesenc %xmm7, %xmm8, %xmm8
  7057. vaesenc %xmm7, %xmm9, %xmm9
  7058. vaesenc %xmm7, %xmm10, %xmm10
  7059. vaesenc %xmm7, %xmm11, %xmm11
  7060. vaesenc %xmm7, %xmm12, %xmm12
  7061. vaesenc %xmm7, %xmm13, %xmm13
  7062. vaesenc %xmm7, %xmm14, %xmm14
  7063. vaesenc %xmm7, %xmm15, %xmm15
  7064. cmpl $11, %r10d
  7065. vmovdqa 160(%r15), %xmm7
  7066. jl L_AES_GCM_encrypt_avx1_aesenc_128_enc_done
  7067. vaesenc %xmm7, %xmm8, %xmm8
  7068. vaesenc %xmm7, %xmm9, %xmm9
  7069. vaesenc %xmm7, %xmm10, %xmm10
  7070. vaesenc %xmm7, %xmm11, %xmm11
  7071. vaesenc %xmm7, %xmm12, %xmm12
  7072. vaesenc %xmm7, %xmm13, %xmm13
  7073. vaesenc %xmm7, %xmm14, %xmm14
  7074. vaesenc %xmm7, %xmm15, %xmm15
  7075. vmovdqa 176(%r15), %xmm7
  7076. vaesenc %xmm7, %xmm8, %xmm8
  7077. vaesenc %xmm7, %xmm9, %xmm9
  7078. vaesenc %xmm7, %xmm10, %xmm10
  7079. vaesenc %xmm7, %xmm11, %xmm11
  7080. vaesenc %xmm7, %xmm12, %xmm12
  7081. vaesenc %xmm7, %xmm13, %xmm13
  7082. vaesenc %xmm7, %xmm14, %xmm14
  7083. vaesenc %xmm7, %xmm15, %xmm15
  7084. cmpl $13, %r10d
  7085. vmovdqa 192(%r15), %xmm7
  7086. jl L_AES_GCM_encrypt_avx1_aesenc_128_enc_done
  7087. vaesenc %xmm7, %xmm8, %xmm8
  7088. vaesenc %xmm7, %xmm9, %xmm9
  7089. vaesenc %xmm7, %xmm10, %xmm10
  7090. vaesenc %xmm7, %xmm11, %xmm11
  7091. vaesenc %xmm7, %xmm12, %xmm12
  7092. vaesenc %xmm7, %xmm13, %xmm13
  7093. vaesenc %xmm7, %xmm14, %xmm14
  7094. vaesenc %xmm7, %xmm15, %xmm15
  7095. vmovdqa 208(%r15), %xmm7
  7096. vaesenc %xmm7, %xmm8, %xmm8
  7097. vaesenc %xmm7, %xmm9, %xmm9
  7098. vaesenc %xmm7, %xmm10, %xmm10
  7099. vaesenc %xmm7, %xmm11, %xmm11
  7100. vaesenc %xmm7, %xmm12, %xmm12
  7101. vaesenc %xmm7, %xmm13, %xmm13
  7102. vaesenc %xmm7, %xmm14, %xmm14
  7103. vaesenc %xmm7, %xmm15, %xmm15
  7104. vmovdqa 224(%r15), %xmm7
  7105. L_AES_GCM_encrypt_avx1_aesenc_128_enc_done:
  7106. vaesenclast %xmm7, %xmm8, %xmm8
  7107. vaesenclast %xmm7, %xmm9, %xmm9
  7108. vmovdqu (%rdi), %xmm0
  7109. vmovdqu 16(%rdi), %xmm1
  7110. vpxor %xmm0, %xmm8, %xmm8
  7111. vpxor %xmm1, %xmm9, %xmm9
  7112. vmovdqu %xmm8, (%rsi)
  7113. vmovdqu %xmm9, 16(%rsi)
  7114. vaesenclast %xmm7, %xmm10, %xmm10
  7115. vaesenclast %xmm7, %xmm11, %xmm11
  7116. vmovdqu 32(%rdi), %xmm0
  7117. vmovdqu 48(%rdi), %xmm1
  7118. vpxor %xmm0, %xmm10, %xmm10
  7119. vpxor %xmm1, %xmm11, %xmm11
  7120. vmovdqu %xmm10, 32(%rsi)
  7121. vmovdqu %xmm11, 48(%rsi)
  7122. vaesenclast %xmm7, %xmm12, %xmm12
  7123. vaesenclast %xmm7, %xmm13, %xmm13
  7124. vmovdqu 64(%rdi), %xmm0
  7125. vmovdqu 80(%rdi), %xmm1
  7126. vpxor %xmm0, %xmm12, %xmm12
  7127. vpxor %xmm1, %xmm13, %xmm13
  7128. vmovdqu %xmm12, 64(%rsi)
  7129. vmovdqu %xmm13, 80(%rsi)
  7130. vaesenclast %xmm7, %xmm14, %xmm14
  7131. vaesenclast %xmm7, %xmm15, %xmm15
  7132. vmovdqu 96(%rdi), %xmm0
  7133. vmovdqu 112(%rdi), %xmm1
  7134. vpxor %xmm0, %xmm14, %xmm14
  7135. vpxor %xmm1, %xmm15, %xmm15
  7136. vmovdqu %xmm14, 96(%rsi)
  7137. vmovdqu %xmm15, 112(%rsi)
  7138. cmpl $0x80, %r13d
  7139. movl $0x80, %ebx
  7140. jle L_AES_GCM_encrypt_avx1_end_128
  7141. # More 128 bytes of input
  7142. L_AES_GCM_encrypt_avx1_ghash_128:
  7143. leaq (%rdi,%rbx,1), %rcx
  7144. leaq (%rsi,%rbx,1), %rdx
  7145. vmovdqa 128(%rsp), %xmm0
  7146. vmovdqa L_avx1_aes_gcm_bswap_epi64(%rip), %xmm1
  7147. vpshufb %xmm1, %xmm0, %xmm8
  7148. vpaddd L_avx1_aes_gcm_one(%rip), %xmm0, %xmm9
  7149. vpshufb %xmm1, %xmm9, %xmm9
  7150. vpaddd L_avx1_aes_gcm_two(%rip), %xmm0, %xmm10
  7151. vpshufb %xmm1, %xmm10, %xmm10
  7152. vpaddd L_avx1_aes_gcm_three(%rip), %xmm0, %xmm11
  7153. vpshufb %xmm1, %xmm11, %xmm11
  7154. vpaddd L_avx1_aes_gcm_four(%rip), %xmm0, %xmm12
  7155. vpshufb %xmm1, %xmm12, %xmm12
  7156. vpaddd L_avx1_aes_gcm_five(%rip), %xmm0, %xmm13
  7157. vpshufb %xmm1, %xmm13, %xmm13
  7158. vpaddd L_avx1_aes_gcm_six(%rip), %xmm0, %xmm14
  7159. vpshufb %xmm1, %xmm14, %xmm14
  7160. vpaddd L_avx1_aes_gcm_seven(%rip), %xmm0, %xmm15
  7161. vpshufb %xmm1, %xmm15, %xmm15
  7162. vpaddd L_avx1_aes_gcm_eight(%rip), %xmm0, %xmm0
  7163. vmovdqa (%r15), %xmm7
  7164. vmovdqa %xmm0, 128(%rsp)
  7165. vpxor %xmm7, %xmm8, %xmm8
  7166. vpxor %xmm7, %xmm9, %xmm9
  7167. vpxor %xmm7, %xmm10, %xmm10
  7168. vpxor %xmm7, %xmm11, %xmm11
  7169. vpxor %xmm7, %xmm12, %xmm12
  7170. vpxor %xmm7, %xmm13, %xmm13
  7171. vpxor %xmm7, %xmm14, %xmm14
  7172. vpxor %xmm7, %xmm15, %xmm15
  7173. vmovdqa 112(%rsp), %xmm7
  7174. vmovdqu -128(%rdx), %xmm0
  7175. vaesenc 16(%r15), %xmm8, %xmm8
  7176. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  7177. vpxor %xmm2, %xmm0, %xmm0
  7178. vpshufd $0x4e, %xmm7, %xmm1
  7179. vpshufd $0x4e, %xmm0, %xmm5
  7180. vpxor %xmm7, %xmm1, %xmm1
  7181. vpxor %xmm0, %xmm5, %xmm5
  7182. vpclmulqdq $0x11, %xmm7, %xmm0, %xmm3
  7183. vaesenc 16(%r15), %xmm9, %xmm9
  7184. vaesenc 16(%r15), %xmm10, %xmm10
  7185. vpclmulqdq $0x00, %xmm7, %xmm0, %xmm2
  7186. vaesenc 16(%r15), %xmm11, %xmm11
  7187. vaesenc 16(%r15), %xmm12, %xmm12
  7188. vpclmulqdq $0x00, %xmm5, %xmm1, %xmm1
  7189. vaesenc 16(%r15), %xmm13, %xmm13
  7190. vaesenc 16(%r15), %xmm14, %xmm14
  7191. vaesenc 16(%r15), %xmm15, %xmm15
  7192. vpxor %xmm2, %xmm1, %xmm1
  7193. vpxor %xmm3, %xmm1, %xmm1
  7194. vmovdqa 96(%rsp), %xmm7
  7195. vmovdqu -112(%rdx), %xmm0
  7196. vpshufd $0x4e, %xmm7, %xmm4
  7197. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  7198. vaesenc 32(%r15), %xmm8, %xmm8
  7199. vpxor %xmm7, %xmm4, %xmm4
  7200. vpshufd $0x4e, %xmm0, %xmm5
  7201. vpxor %xmm0, %xmm5, %xmm5
  7202. vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
  7203. vaesenc 32(%r15), %xmm9, %xmm9
  7204. vaesenc 32(%r15), %xmm10, %xmm10
  7205. vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
  7206. vaesenc 32(%r15), %xmm11, %xmm11
  7207. vaesenc 32(%r15), %xmm12, %xmm12
  7208. vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
  7209. vaesenc 32(%r15), %xmm13, %xmm13
  7210. vaesenc 32(%r15), %xmm14, %xmm14
  7211. vaesenc 32(%r15), %xmm15, %xmm15
  7212. vpxor %xmm7, %xmm1, %xmm1
  7213. vpxor %xmm7, %xmm2, %xmm2
  7214. vpxor %xmm6, %xmm1, %xmm1
  7215. vpxor %xmm6, %xmm3, %xmm3
  7216. vpxor %xmm4, %xmm1, %xmm1
  7217. vmovdqa 80(%rsp), %xmm7
  7218. vmovdqu -96(%rdx), %xmm0
  7219. vpshufd $0x4e, %xmm7, %xmm4
  7220. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  7221. vaesenc 48(%r15), %xmm8, %xmm8
  7222. vpxor %xmm7, %xmm4, %xmm4
  7223. vpshufd $0x4e, %xmm0, %xmm5
  7224. vpxor %xmm0, %xmm5, %xmm5
  7225. vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
  7226. vaesenc 48(%r15), %xmm9, %xmm9
  7227. vaesenc 48(%r15), %xmm10, %xmm10
  7228. vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
  7229. vaesenc 48(%r15), %xmm11, %xmm11
  7230. vaesenc 48(%r15), %xmm12, %xmm12
  7231. vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
  7232. vaesenc 48(%r15), %xmm13, %xmm13
  7233. vaesenc 48(%r15), %xmm14, %xmm14
  7234. vaesenc 48(%r15), %xmm15, %xmm15
  7235. vpxor %xmm7, %xmm1, %xmm1
  7236. vpxor %xmm7, %xmm2, %xmm2
  7237. vpxor %xmm6, %xmm1, %xmm1
  7238. vpxor %xmm6, %xmm3, %xmm3
  7239. vpxor %xmm4, %xmm1, %xmm1
  7240. vmovdqa 64(%rsp), %xmm7
  7241. vmovdqu -80(%rdx), %xmm0
  7242. vpshufd $0x4e, %xmm7, %xmm4
  7243. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  7244. vaesenc 64(%r15), %xmm8, %xmm8
  7245. vpxor %xmm7, %xmm4, %xmm4
  7246. vpshufd $0x4e, %xmm0, %xmm5
  7247. vpxor %xmm0, %xmm5, %xmm5
  7248. vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
  7249. vaesenc 64(%r15), %xmm9, %xmm9
  7250. vaesenc 64(%r15), %xmm10, %xmm10
  7251. vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
  7252. vaesenc 64(%r15), %xmm11, %xmm11
  7253. vaesenc 64(%r15), %xmm12, %xmm12
  7254. vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
  7255. vaesenc 64(%r15), %xmm13, %xmm13
  7256. vaesenc 64(%r15), %xmm14, %xmm14
  7257. vaesenc 64(%r15), %xmm15, %xmm15
  7258. vpxor %xmm7, %xmm1, %xmm1
  7259. vpxor %xmm7, %xmm2, %xmm2
  7260. vpxor %xmm6, %xmm1, %xmm1
  7261. vpxor %xmm6, %xmm3, %xmm3
  7262. vpxor %xmm4, %xmm1, %xmm1
  7263. vmovdqa 48(%rsp), %xmm7
  7264. vmovdqu -64(%rdx), %xmm0
  7265. vpshufd $0x4e, %xmm7, %xmm4
  7266. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  7267. vaesenc 80(%r15), %xmm8, %xmm8
  7268. vpxor %xmm7, %xmm4, %xmm4
  7269. vpshufd $0x4e, %xmm0, %xmm5
  7270. vpxor %xmm0, %xmm5, %xmm5
  7271. vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
  7272. vaesenc 80(%r15), %xmm9, %xmm9
  7273. vaesenc 80(%r15), %xmm10, %xmm10
  7274. vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
  7275. vaesenc 80(%r15), %xmm11, %xmm11
  7276. vaesenc 80(%r15), %xmm12, %xmm12
  7277. vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
  7278. vaesenc 80(%r15), %xmm13, %xmm13
  7279. vaesenc 80(%r15), %xmm14, %xmm14
  7280. vaesenc 80(%r15), %xmm15, %xmm15
  7281. vpxor %xmm7, %xmm1, %xmm1
  7282. vpxor %xmm7, %xmm2, %xmm2
  7283. vpxor %xmm6, %xmm1, %xmm1
  7284. vpxor %xmm6, %xmm3, %xmm3
  7285. vpxor %xmm4, %xmm1, %xmm1
  7286. vmovdqa 32(%rsp), %xmm7
  7287. vmovdqu -48(%rdx), %xmm0
  7288. vpshufd $0x4e, %xmm7, %xmm4
  7289. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  7290. vaesenc 96(%r15), %xmm8, %xmm8
  7291. vpxor %xmm7, %xmm4, %xmm4
  7292. vpshufd $0x4e, %xmm0, %xmm5
  7293. vpxor %xmm0, %xmm5, %xmm5
  7294. vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
  7295. vaesenc 96(%r15), %xmm9, %xmm9
  7296. vaesenc 96(%r15), %xmm10, %xmm10
  7297. vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
  7298. vaesenc 96(%r15), %xmm11, %xmm11
  7299. vaesenc 96(%r15), %xmm12, %xmm12
  7300. vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
  7301. vaesenc 96(%r15), %xmm13, %xmm13
  7302. vaesenc 96(%r15), %xmm14, %xmm14
  7303. vaesenc 96(%r15), %xmm15, %xmm15
  7304. vpxor %xmm7, %xmm1, %xmm1
  7305. vpxor %xmm7, %xmm2, %xmm2
  7306. vpxor %xmm6, %xmm1, %xmm1
  7307. vpxor %xmm6, %xmm3, %xmm3
  7308. vpxor %xmm4, %xmm1, %xmm1
  7309. vmovdqa 16(%rsp), %xmm7
  7310. vmovdqu -32(%rdx), %xmm0
  7311. vpshufd $0x4e, %xmm7, %xmm4
  7312. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  7313. vaesenc 112(%r15), %xmm8, %xmm8
  7314. vpxor %xmm7, %xmm4, %xmm4
  7315. vpshufd $0x4e, %xmm0, %xmm5
  7316. vpxor %xmm0, %xmm5, %xmm5
  7317. vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
  7318. vaesenc 112(%r15), %xmm9, %xmm9
  7319. vaesenc 112(%r15), %xmm10, %xmm10
  7320. vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
  7321. vaesenc 112(%r15), %xmm11, %xmm11
  7322. vaesenc 112(%r15), %xmm12, %xmm12
  7323. vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
  7324. vaesenc 112(%r15), %xmm13, %xmm13
  7325. vaesenc 112(%r15), %xmm14, %xmm14
  7326. vaesenc 112(%r15), %xmm15, %xmm15
  7327. vpxor %xmm7, %xmm1, %xmm1
  7328. vpxor %xmm7, %xmm2, %xmm2
  7329. vpxor %xmm6, %xmm1, %xmm1
  7330. vpxor %xmm6, %xmm3, %xmm3
  7331. vpxor %xmm4, %xmm1, %xmm1
  7332. vmovdqa (%rsp), %xmm7
  7333. vmovdqu -16(%rdx), %xmm0
  7334. vpshufd $0x4e, %xmm7, %xmm4
  7335. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  7336. vaesenc 128(%r15), %xmm8, %xmm8
  7337. vpxor %xmm7, %xmm4, %xmm4
  7338. vpshufd $0x4e, %xmm0, %xmm5
  7339. vpxor %xmm0, %xmm5, %xmm5
  7340. vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
  7341. vaesenc 128(%r15), %xmm9, %xmm9
  7342. vaesenc 128(%r15), %xmm10, %xmm10
  7343. vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
  7344. vaesenc 128(%r15), %xmm11, %xmm11
  7345. vaesenc 128(%r15), %xmm12, %xmm12
  7346. vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
  7347. vaesenc 128(%r15), %xmm13, %xmm13
  7348. vaesenc 128(%r15), %xmm14, %xmm14
  7349. vaesenc 128(%r15), %xmm15, %xmm15
  7350. vpxor %xmm7, %xmm1, %xmm1
  7351. vpxor %xmm7, %xmm2, %xmm2
  7352. vpxor %xmm6, %xmm1, %xmm1
  7353. vpxor %xmm6, %xmm3, %xmm3
  7354. vpxor %xmm4, %xmm1, %xmm1
  7355. vpslldq $8, %xmm1, %xmm5
  7356. vpsrldq $8, %xmm1, %xmm1
  7357. vaesenc 144(%r15), %xmm8, %xmm8
  7358. vpxor %xmm5, %xmm2, %xmm2
  7359. vpxor %xmm1, %xmm3, %xmm3
  7360. vaesenc 144(%r15), %xmm9, %xmm9
  7361. vpslld $31, %xmm2, %xmm7
  7362. vpslld $30, %xmm2, %xmm4
  7363. vpslld $25, %xmm2, %xmm5
  7364. vaesenc 144(%r15), %xmm10, %xmm10
  7365. vpxor %xmm4, %xmm7, %xmm7
  7366. vpxor %xmm5, %xmm7, %xmm7
  7367. vaesenc 144(%r15), %xmm11, %xmm11
  7368. vpsrldq $4, %xmm7, %xmm4
  7369. vpslldq $12, %xmm7, %xmm7
  7370. vaesenc 144(%r15), %xmm12, %xmm12
  7371. vpxor %xmm7, %xmm2, %xmm2
  7372. vpsrld $0x01, %xmm2, %xmm5
  7373. vaesenc 144(%r15), %xmm13, %xmm13
  7374. vpsrld $2, %xmm2, %xmm1
  7375. vpsrld $7, %xmm2, %xmm0
  7376. vaesenc 144(%r15), %xmm14, %xmm14
  7377. vpxor %xmm1, %xmm5, %xmm5
  7378. vpxor %xmm0, %xmm5, %xmm5
  7379. vaesenc 144(%r15), %xmm15, %xmm15
  7380. vpxor %xmm4, %xmm5, %xmm5
  7381. vpxor %xmm5, %xmm2, %xmm2
  7382. vpxor %xmm3, %xmm2, %xmm2
  7383. cmpl $11, %r10d
  7384. vmovdqa 160(%r15), %xmm7
  7385. jl L_AES_GCM_encrypt_avx1_aesenc_128_ghash_avx_done
  7386. vaesenc %xmm7, %xmm8, %xmm8
  7387. vaesenc %xmm7, %xmm9, %xmm9
  7388. vaesenc %xmm7, %xmm10, %xmm10
  7389. vaesenc %xmm7, %xmm11, %xmm11
  7390. vaesenc %xmm7, %xmm12, %xmm12
  7391. vaesenc %xmm7, %xmm13, %xmm13
  7392. vaesenc %xmm7, %xmm14, %xmm14
  7393. vaesenc %xmm7, %xmm15, %xmm15
  7394. vmovdqa 176(%r15), %xmm7
  7395. vaesenc %xmm7, %xmm8, %xmm8
  7396. vaesenc %xmm7, %xmm9, %xmm9
  7397. vaesenc %xmm7, %xmm10, %xmm10
  7398. vaesenc %xmm7, %xmm11, %xmm11
  7399. vaesenc %xmm7, %xmm12, %xmm12
  7400. vaesenc %xmm7, %xmm13, %xmm13
  7401. vaesenc %xmm7, %xmm14, %xmm14
  7402. vaesenc %xmm7, %xmm15, %xmm15
  7403. cmpl $13, %r10d
  7404. vmovdqa 192(%r15), %xmm7
  7405. jl L_AES_GCM_encrypt_avx1_aesenc_128_ghash_avx_done
  7406. vaesenc %xmm7, %xmm8, %xmm8
  7407. vaesenc %xmm7, %xmm9, %xmm9
  7408. vaesenc %xmm7, %xmm10, %xmm10
  7409. vaesenc %xmm7, %xmm11, %xmm11
  7410. vaesenc %xmm7, %xmm12, %xmm12
  7411. vaesenc %xmm7, %xmm13, %xmm13
  7412. vaesenc %xmm7, %xmm14, %xmm14
  7413. vaesenc %xmm7, %xmm15, %xmm15
  7414. vmovdqa 208(%r15), %xmm7
  7415. vaesenc %xmm7, %xmm8, %xmm8
  7416. vaesenc %xmm7, %xmm9, %xmm9
  7417. vaesenc %xmm7, %xmm10, %xmm10
  7418. vaesenc %xmm7, %xmm11, %xmm11
  7419. vaesenc %xmm7, %xmm12, %xmm12
  7420. vaesenc %xmm7, %xmm13, %xmm13
  7421. vaesenc %xmm7, %xmm14, %xmm14
  7422. vaesenc %xmm7, %xmm15, %xmm15
  7423. vmovdqa 224(%r15), %xmm7
  7424. L_AES_GCM_encrypt_avx1_aesenc_128_ghash_avx_done:
  7425. vaesenclast %xmm7, %xmm8, %xmm8
  7426. vaesenclast %xmm7, %xmm9, %xmm9
  7427. vmovdqu (%rcx), %xmm0
  7428. vmovdqu 16(%rcx), %xmm1
  7429. vpxor %xmm0, %xmm8, %xmm8
  7430. vpxor %xmm1, %xmm9, %xmm9
  7431. vmovdqu %xmm8, (%rdx)
  7432. vmovdqu %xmm9, 16(%rdx)
  7433. vaesenclast %xmm7, %xmm10, %xmm10
  7434. vaesenclast %xmm7, %xmm11, %xmm11
  7435. vmovdqu 32(%rcx), %xmm0
  7436. vmovdqu 48(%rcx), %xmm1
  7437. vpxor %xmm0, %xmm10, %xmm10
  7438. vpxor %xmm1, %xmm11, %xmm11
  7439. vmovdqu %xmm10, 32(%rdx)
  7440. vmovdqu %xmm11, 48(%rdx)
  7441. vaesenclast %xmm7, %xmm12, %xmm12
  7442. vaesenclast %xmm7, %xmm13, %xmm13
  7443. vmovdqu 64(%rcx), %xmm0
  7444. vmovdqu 80(%rcx), %xmm1
  7445. vpxor %xmm0, %xmm12, %xmm12
  7446. vpxor %xmm1, %xmm13, %xmm13
  7447. vmovdqu %xmm12, 64(%rdx)
  7448. vmovdqu %xmm13, 80(%rdx)
  7449. vaesenclast %xmm7, %xmm14, %xmm14
  7450. vaesenclast %xmm7, %xmm15, %xmm15
  7451. vmovdqu 96(%rcx), %xmm0
  7452. vmovdqu 112(%rcx), %xmm1
  7453. vpxor %xmm0, %xmm14, %xmm14
  7454. vpxor %xmm1, %xmm15, %xmm15
  7455. vmovdqu %xmm14, 96(%rdx)
  7456. vmovdqu %xmm15, 112(%rdx)
  7457. addl $0x80, %ebx
  7458. cmpl %r13d, %ebx
  7459. jl L_AES_GCM_encrypt_avx1_ghash_128
  7460. L_AES_GCM_encrypt_avx1_end_128:
  7461. vmovdqa L_avx1_aes_gcm_bswap_mask(%rip), %xmm4
  7462. vpshufb %xmm4, %xmm8, %xmm8
  7463. vpshufb %xmm4, %xmm9, %xmm9
  7464. vpshufb %xmm4, %xmm10, %xmm10
  7465. vpshufb %xmm4, %xmm11, %xmm11
  7466. vpxor %xmm2, %xmm8, %xmm8
  7467. vpshufb %xmm4, %xmm12, %xmm12
  7468. vpshufb %xmm4, %xmm13, %xmm13
  7469. vpshufb %xmm4, %xmm14, %xmm14
  7470. vpshufb %xmm4, %xmm15, %xmm15
  7471. vmovdqa (%rsp), %xmm7
  7472. vmovdqa 16(%rsp), %xmm5
  7473. # ghash_gfmul_avx
  7474. vpshufd $0x4e, %xmm15, %xmm1
  7475. vpshufd $0x4e, %xmm7, %xmm2
  7476. vpclmulqdq $0x11, %xmm15, %xmm7, %xmm3
  7477. vpclmulqdq $0x00, %xmm15, %xmm7, %xmm0
  7478. vpxor %xmm15, %xmm1, %xmm1
  7479. vpxor %xmm7, %xmm2, %xmm2
  7480. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
  7481. vpxor %xmm0, %xmm1, %xmm1
  7482. vpxor %xmm3, %xmm1, %xmm1
  7483. vmovdqa %xmm0, %xmm4
  7484. vmovdqa %xmm3, %xmm6
  7485. vpslldq $8, %xmm1, %xmm2
  7486. vpsrldq $8, %xmm1, %xmm1
  7487. vpxor %xmm2, %xmm4, %xmm4
  7488. vpxor %xmm1, %xmm6, %xmm6
  7489. # ghash_gfmul_xor_avx
  7490. vpshufd $0x4e, %xmm14, %xmm1
  7491. vpshufd $0x4e, %xmm5, %xmm2
  7492. vpclmulqdq $0x11, %xmm14, %xmm5, %xmm3
  7493. vpclmulqdq $0x00, %xmm14, %xmm5, %xmm0
  7494. vpxor %xmm14, %xmm1, %xmm1
  7495. vpxor %xmm5, %xmm2, %xmm2
  7496. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
  7497. vpxor %xmm0, %xmm1, %xmm1
  7498. vpxor %xmm3, %xmm1, %xmm1
  7499. vpxor %xmm0, %xmm4, %xmm4
  7500. vpxor %xmm3, %xmm6, %xmm6
  7501. vpslldq $8, %xmm1, %xmm2
  7502. vpsrldq $8, %xmm1, %xmm1
  7503. vpxor %xmm2, %xmm4, %xmm4
  7504. vpxor %xmm1, %xmm6, %xmm6
  7505. vmovdqa 32(%rsp), %xmm7
  7506. vmovdqa 48(%rsp), %xmm5
  7507. # ghash_gfmul_xor_avx
  7508. vpshufd $0x4e, %xmm13, %xmm1
  7509. vpshufd $0x4e, %xmm7, %xmm2
  7510. vpclmulqdq $0x11, %xmm13, %xmm7, %xmm3
  7511. vpclmulqdq $0x00, %xmm13, %xmm7, %xmm0
  7512. vpxor %xmm13, %xmm1, %xmm1
  7513. vpxor %xmm7, %xmm2, %xmm2
  7514. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
  7515. vpxor %xmm0, %xmm1, %xmm1
  7516. vpxor %xmm3, %xmm1, %xmm1
  7517. vpxor %xmm0, %xmm4, %xmm4
  7518. vpxor %xmm3, %xmm6, %xmm6
  7519. vpslldq $8, %xmm1, %xmm2
  7520. vpsrldq $8, %xmm1, %xmm1
  7521. vpxor %xmm2, %xmm4, %xmm4
  7522. vpxor %xmm1, %xmm6, %xmm6
  7523. # ghash_gfmul_xor_avx
  7524. vpshufd $0x4e, %xmm12, %xmm1
  7525. vpshufd $0x4e, %xmm5, %xmm2
  7526. vpclmulqdq $0x11, %xmm12, %xmm5, %xmm3
  7527. vpclmulqdq $0x00, %xmm12, %xmm5, %xmm0
  7528. vpxor %xmm12, %xmm1, %xmm1
  7529. vpxor %xmm5, %xmm2, %xmm2
  7530. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
  7531. vpxor %xmm0, %xmm1, %xmm1
  7532. vpxor %xmm3, %xmm1, %xmm1
  7533. vpxor %xmm0, %xmm4, %xmm4
  7534. vpxor %xmm3, %xmm6, %xmm6
  7535. vpslldq $8, %xmm1, %xmm2
  7536. vpsrldq $8, %xmm1, %xmm1
  7537. vpxor %xmm2, %xmm4, %xmm4
  7538. vpxor %xmm1, %xmm6, %xmm6
  7539. vmovdqa 64(%rsp), %xmm7
  7540. vmovdqa 80(%rsp), %xmm5
  7541. # ghash_gfmul_xor_avx
  7542. vpshufd $0x4e, %xmm11, %xmm1
  7543. vpshufd $0x4e, %xmm7, %xmm2
  7544. vpclmulqdq $0x11, %xmm11, %xmm7, %xmm3
  7545. vpclmulqdq $0x00, %xmm11, %xmm7, %xmm0
  7546. vpxor %xmm11, %xmm1, %xmm1
  7547. vpxor %xmm7, %xmm2, %xmm2
  7548. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
  7549. vpxor %xmm0, %xmm1, %xmm1
  7550. vpxor %xmm3, %xmm1, %xmm1
  7551. vpxor %xmm0, %xmm4, %xmm4
  7552. vpxor %xmm3, %xmm6, %xmm6
  7553. vpslldq $8, %xmm1, %xmm2
  7554. vpsrldq $8, %xmm1, %xmm1
  7555. vpxor %xmm2, %xmm4, %xmm4
  7556. vpxor %xmm1, %xmm6, %xmm6
  7557. # ghash_gfmul_xor_avx
  7558. vpshufd $0x4e, %xmm10, %xmm1
  7559. vpshufd $0x4e, %xmm5, %xmm2
  7560. vpclmulqdq $0x11, %xmm10, %xmm5, %xmm3
  7561. vpclmulqdq $0x00, %xmm10, %xmm5, %xmm0
  7562. vpxor %xmm10, %xmm1, %xmm1
  7563. vpxor %xmm5, %xmm2, %xmm2
  7564. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
  7565. vpxor %xmm0, %xmm1, %xmm1
  7566. vpxor %xmm3, %xmm1, %xmm1
  7567. vpxor %xmm0, %xmm4, %xmm4
  7568. vpxor %xmm3, %xmm6, %xmm6
  7569. vpslldq $8, %xmm1, %xmm2
  7570. vpsrldq $8, %xmm1, %xmm1
  7571. vpxor %xmm2, %xmm4, %xmm4
  7572. vpxor %xmm1, %xmm6, %xmm6
  7573. vmovdqa 96(%rsp), %xmm7
  7574. vmovdqa 112(%rsp), %xmm5
  7575. # ghash_gfmul_xor_avx
  7576. vpshufd $0x4e, %xmm9, %xmm1
  7577. vpshufd $0x4e, %xmm7, %xmm2
  7578. vpclmulqdq $0x11, %xmm9, %xmm7, %xmm3
  7579. vpclmulqdq $0x00, %xmm9, %xmm7, %xmm0
  7580. vpxor %xmm9, %xmm1, %xmm1
  7581. vpxor %xmm7, %xmm2, %xmm2
  7582. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
  7583. vpxor %xmm0, %xmm1, %xmm1
  7584. vpxor %xmm3, %xmm1, %xmm1
  7585. vpxor %xmm0, %xmm4, %xmm4
  7586. vpxor %xmm3, %xmm6, %xmm6
  7587. vpslldq $8, %xmm1, %xmm2
  7588. vpsrldq $8, %xmm1, %xmm1
  7589. vpxor %xmm2, %xmm4, %xmm4
  7590. vpxor %xmm1, %xmm6, %xmm6
  7591. # ghash_gfmul_xor_avx
  7592. vpshufd $0x4e, %xmm8, %xmm1
  7593. vpshufd $0x4e, %xmm5, %xmm2
  7594. vpclmulqdq $0x11, %xmm8, %xmm5, %xmm3
  7595. vpclmulqdq $0x00, %xmm8, %xmm5, %xmm0
  7596. vpxor %xmm8, %xmm1, %xmm1
  7597. vpxor %xmm5, %xmm2, %xmm2
  7598. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
  7599. vpxor %xmm0, %xmm1, %xmm1
  7600. vpxor %xmm3, %xmm1, %xmm1
  7601. vpxor %xmm0, %xmm4, %xmm4
  7602. vpxor %xmm3, %xmm6, %xmm6
  7603. vpslldq $8, %xmm1, %xmm2
  7604. vpsrldq $8, %xmm1, %xmm1
  7605. vpxor %xmm2, %xmm4, %xmm4
  7606. vpxor %xmm1, %xmm6, %xmm6
  7607. vpslld $31, %xmm4, %xmm0
  7608. vpslld $30, %xmm4, %xmm1
  7609. vpslld $25, %xmm4, %xmm2
  7610. vpxor %xmm1, %xmm0, %xmm0
  7611. vpxor %xmm2, %xmm0, %xmm0
  7612. vmovdqa %xmm0, %xmm1
  7613. vpsrldq $4, %xmm1, %xmm1
  7614. vpslldq $12, %xmm0, %xmm0
  7615. vpxor %xmm0, %xmm4, %xmm4
  7616. vpsrld $0x01, %xmm4, %xmm2
  7617. vpsrld $2, %xmm4, %xmm3
  7618. vpsrld $7, %xmm4, %xmm0
  7619. vpxor %xmm3, %xmm2, %xmm2
  7620. vpxor %xmm0, %xmm2, %xmm2
  7621. vpxor %xmm1, %xmm2, %xmm2
  7622. vpxor %xmm4, %xmm2, %xmm2
  7623. vpxor %xmm2, %xmm6, %xmm6
  7624. vmovdqa (%rsp), %xmm5
  7625. L_AES_GCM_encrypt_avx1_done_128:
  7626. movl %r9d, %edx
  7627. cmpl %edx, %ebx
  7628. jge L_AES_GCM_encrypt_avx1_done_enc
  7629. movl %r9d, %r13d
  7630. andl $0xfffffff0, %r13d
  7631. cmpl %r13d, %ebx
  7632. jge L_AES_GCM_encrypt_avx1_last_block_done
  7633. vmovdqa 128(%rsp), %xmm9
  7634. vpshufb L_avx1_aes_gcm_bswap_epi64(%rip), %xmm9, %xmm8
  7635. vpaddd L_avx1_aes_gcm_one(%rip), %xmm9, %xmm9
  7636. vmovdqa %xmm9, 128(%rsp)
  7637. vpxor (%r15), %xmm8, %xmm8
  7638. vaesenc 16(%r15), %xmm8, %xmm8
  7639. vaesenc 32(%r15), %xmm8, %xmm8
  7640. vaesenc 48(%r15), %xmm8, %xmm8
  7641. vaesenc 64(%r15), %xmm8, %xmm8
  7642. vaesenc 80(%r15), %xmm8, %xmm8
  7643. vaesenc 96(%r15), %xmm8, %xmm8
  7644. vaesenc 112(%r15), %xmm8, %xmm8
  7645. vaesenc 128(%r15), %xmm8, %xmm8
  7646. vaesenc 144(%r15), %xmm8, %xmm8
  7647. cmpl $11, %r10d
  7648. vmovdqa 160(%r15), %xmm9
  7649. jl L_AES_GCM_encrypt_avx1_aesenc_block_last
  7650. vaesenc %xmm9, %xmm8, %xmm8
  7651. vaesenc 176(%r15), %xmm8, %xmm8
  7652. cmpl $13, %r10d
  7653. vmovdqa 192(%r15), %xmm9
  7654. jl L_AES_GCM_encrypt_avx1_aesenc_block_last
  7655. vaesenc %xmm9, %xmm8, %xmm8
  7656. vaesenc 208(%r15), %xmm8, %xmm8
  7657. vmovdqa 224(%r15), %xmm9
  7658. L_AES_GCM_encrypt_avx1_aesenc_block_last:
  7659. vaesenclast %xmm9, %xmm8, %xmm8
  7660. vmovdqu (%rdi,%rbx,1), %xmm9
  7661. vpxor %xmm9, %xmm8, %xmm8
  7662. vmovdqu %xmm8, (%rsi,%rbx,1)
  7663. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm8, %xmm8
  7664. vpxor %xmm8, %xmm6, %xmm6
  7665. addl $16, %ebx
  7666. cmpl %r13d, %ebx
  7667. jge L_AES_GCM_encrypt_avx1_last_block_ghash
  7668. L_AES_GCM_encrypt_avx1_last_block_start:
  7669. vmovdqu (%rdi,%rbx,1), %xmm13
  7670. vmovdqa 128(%rsp), %xmm9
  7671. vpshufb L_avx1_aes_gcm_bswap_epi64(%rip), %xmm9, %xmm8
  7672. vpaddd L_avx1_aes_gcm_one(%rip), %xmm9, %xmm9
  7673. vmovdqa %xmm9, 128(%rsp)
  7674. vpxor (%r15), %xmm8, %xmm8
  7675. vpclmulqdq $16, %xmm5, %xmm6, %xmm10
  7676. vaesenc 16(%r15), %xmm8, %xmm8
  7677. vaesenc 32(%r15), %xmm8, %xmm8
  7678. vpclmulqdq $0x01, %xmm5, %xmm6, %xmm11
  7679. vaesenc 48(%r15), %xmm8, %xmm8
  7680. vaesenc 64(%r15), %xmm8, %xmm8
  7681. vpclmulqdq $0x00, %xmm5, %xmm6, %xmm12
  7682. vaesenc 80(%r15), %xmm8, %xmm8
  7683. vpclmulqdq $0x11, %xmm5, %xmm6, %xmm1
  7684. vaesenc 96(%r15), %xmm8, %xmm8
  7685. vpxor %xmm11, %xmm10, %xmm10
  7686. vpslldq $8, %xmm10, %xmm2
  7687. vpsrldq $8, %xmm10, %xmm10
  7688. vaesenc 112(%r15), %xmm8, %xmm8
  7689. vpxor %xmm12, %xmm2, %xmm2
  7690. vpxor %xmm10, %xmm1, %xmm3
  7691. vmovdqa L_avx1_aes_gcm_mod2_128(%rip), %xmm0
  7692. vpclmulqdq $16, %xmm0, %xmm2, %xmm11
  7693. vaesenc 128(%r15), %xmm8, %xmm8
  7694. vpshufd $0x4e, %xmm2, %xmm10
  7695. vpxor %xmm11, %xmm10, %xmm10
  7696. vpclmulqdq $16, %xmm0, %xmm10, %xmm11
  7697. vaesenc 144(%r15), %xmm8, %xmm8
  7698. vpshufd $0x4e, %xmm10, %xmm10
  7699. vpxor %xmm11, %xmm10, %xmm10
  7700. vpxor %xmm3, %xmm10, %xmm6
  7701. cmpl $11, %r10d
  7702. vmovdqa 160(%r15), %xmm9
  7703. jl L_AES_GCM_encrypt_avx1_aesenc_gfmul_last
  7704. vaesenc %xmm9, %xmm8, %xmm8
  7705. vaesenc 176(%r15), %xmm8, %xmm8
  7706. cmpl $13, %r10d
  7707. vmovdqa 192(%r15), %xmm9
  7708. jl L_AES_GCM_encrypt_avx1_aesenc_gfmul_last
  7709. vaesenc %xmm9, %xmm8, %xmm8
  7710. vaesenc 208(%r15), %xmm8, %xmm8
  7711. vmovdqa 224(%r15), %xmm9
  7712. L_AES_GCM_encrypt_avx1_aesenc_gfmul_last:
  7713. vaesenclast %xmm9, %xmm8, %xmm8
  7714. vmovdqa %xmm13, %xmm0
  7715. vpxor %xmm0, %xmm8, %xmm8
  7716. vmovdqu %xmm8, (%rsi,%rbx,1)
  7717. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm8, %xmm8
  7718. addl $16, %ebx
  7719. vpxor %xmm8, %xmm6, %xmm6
  7720. cmpl %r13d, %ebx
  7721. jl L_AES_GCM_encrypt_avx1_last_block_start
  7722. L_AES_GCM_encrypt_avx1_last_block_ghash:
  7723. # ghash_gfmul_red_avx
  7724. vpshufd $0x4e, %xmm5, %xmm9
  7725. vpshufd $0x4e, %xmm6, %xmm10
  7726. vpclmulqdq $0x11, %xmm5, %xmm6, %xmm11
  7727. vpclmulqdq $0x00, %xmm5, %xmm6, %xmm8
  7728. vpxor %xmm5, %xmm9, %xmm9
  7729. vpxor %xmm6, %xmm10, %xmm10
  7730. vpclmulqdq $0x00, %xmm10, %xmm9, %xmm9
  7731. vpxor %xmm8, %xmm9, %xmm9
  7732. vpxor %xmm11, %xmm9, %xmm9
  7733. vpslldq $8, %xmm9, %xmm10
  7734. vpsrldq $8, %xmm9, %xmm9
  7735. vpxor %xmm10, %xmm8, %xmm8
  7736. vpxor %xmm9, %xmm11, %xmm6
  7737. vpslld $31, %xmm8, %xmm12
  7738. vpslld $30, %xmm8, %xmm13
  7739. vpslld $25, %xmm8, %xmm14
  7740. vpxor %xmm13, %xmm12, %xmm12
  7741. vpxor %xmm14, %xmm12, %xmm12
  7742. vpsrldq $4, %xmm12, %xmm13
  7743. vpslldq $12, %xmm12, %xmm12
  7744. vpxor %xmm12, %xmm8, %xmm8
  7745. vpsrld $0x01, %xmm8, %xmm14
  7746. vpsrld $2, %xmm8, %xmm10
  7747. vpsrld $7, %xmm8, %xmm9
  7748. vpxor %xmm10, %xmm14, %xmm14
  7749. vpxor %xmm9, %xmm14, %xmm14
  7750. vpxor %xmm13, %xmm14, %xmm14
  7751. vpxor %xmm8, %xmm14, %xmm14
  7752. vpxor %xmm14, %xmm6, %xmm6
  7753. L_AES_GCM_encrypt_avx1_last_block_done:
  7754. movl %r9d, %ecx
  7755. movl %ecx, %edx
  7756. andl $15, %ecx
  7757. jz L_AES_GCM_encrypt_avx1_aesenc_last15_enc_avx_done
  7758. vmovdqa 128(%rsp), %xmm4
  7759. vpshufb L_avx1_aes_gcm_bswap_epi64(%rip), %xmm4, %xmm4
  7760. vpxor (%r15), %xmm4, %xmm4
  7761. vaesenc 16(%r15), %xmm4, %xmm4
  7762. vaesenc 32(%r15), %xmm4, %xmm4
  7763. vaesenc 48(%r15), %xmm4, %xmm4
  7764. vaesenc 64(%r15), %xmm4, %xmm4
  7765. vaesenc 80(%r15), %xmm4, %xmm4
  7766. vaesenc 96(%r15), %xmm4, %xmm4
  7767. vaesenc 112(%r15), %xmm4, %xmm4
  7768. vaesenc 128(%r15), %xmm4, %xmm4
  7769. vaesenc 144(%r15), %xmm4, %xmm4
  7770. cmpl $11, %r10d
  7771. vmovdqa 160(%r15), %xmm9
  7772. jl L_AES_GCM_encrypt_avx1_aesenc_last15_enc_avx_aesenc_avx_last
  7773. vaesenc %xmm9, %xmm4, %xmm4
  7774. vaesenc 176(%r15), %xmm4, %xmm4
  7775. cmpl $13, %r10d
  7776. vmovdqa 192(%r15), %xmm9
  7777. jl L_AES_GCM_encrypt_avx1_aesenc_last15_enc_avx_aesenc_avx_last
  7778. vaesenc %xmm9, %xmm4, %xmm4
  7779. vaesenc 208(%r15), %xmm4, %xmm4
  7780. vmovdqa 224(%r15), %xmm9
  7781. L_AES_GCM_encrypt_avx1_aesenc_last15_enc_avx_aesenc_avx_last:
  7782. vaesenclast %xmm9, %xmm4, %xmm4
  7783. subq $16, %rsp
  7784. xorl %ecx, %ecx
  7785. vmovdqu %xmm4, (%rsp)
  7786. L_AES_GCM_encrypt_avx1_aesenc_last15_enc_avx_loop:
  7787. movzbl (%rdi,%rbx,1), %r13d
  7788. xorb (%rsp,%rcx,1), %r13b
  7789. movb %r13b, (%rsi,%rbx,1)
  7790. movb %r13b, (%rsp,%rcx,1)
  7791. incl %ebx
  7792. incl %ecx
  7793. cmpl %edx, %ebx
  7794. jl L_AES_GCM_encrypt_avx1_aesenc_last15_enc_avx_loop
  7795. xorq %r13, %r13
  7796. cmpl $16, %ecx
  7797. je L_AES_GCM_encrypt_avx1_aesenc_last15_enc_avx_finish_enc
  7798. L_AES_GCM_encrypt_avx1_aesenc_last15_enc_avx_byte_loop:
  7799. movb %r13b, (%rsp,%rcx,1)
  7800. incl %ecx
  7801. cmpl $16, %ecx
  7802. jl L_AES_GCM_encrypt_avx1_aesenc_last15_enc_avx_byte_loop
  7803. L_AES_GCM_encrypt_avx1_aesenc_last15_enc_avx_finish_enc:
  7804. vmovdqu (%rsp), %xmm4
  7805. addq $16, %rsp
  7806. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm4, %xmm4
  7807. vpxor %xmm4, %xmm6, %xmm6
  7808. # ghash_gfmul_red_avx
  7809. vpshufd $0x4e, %xmm5, %xmm9
  7810. vpshufd $0x4e, %xmm6, %xmm10
  7811. vpclmulqdq $0x11, %xmm5, %xmm6, %xmm11
  7812. vpclmulqdq $0x00, %xmm5, %xmm6, %xmm8
  7813. vpxor %xmm5, %xmm9, %xmm9
  7814. vpxor %xmm6, %xmm10, %xmm10
  7815. vpclmulqdq $0x00, %xmm10, %xmm9, %xmm9
  7816. vpxor %xmm8, %xmm9, %xmm9
  7817. vpxor %xmm11, %xmm9, %xmm9
  7818. vpslldq $8, %xmm9, %xmm10
  7819. vpsrldq $8, %xmm9, %xmm9
  7820. vpxor %xmm10, %xmm8, %xmm8
  7821. vpxor %xmm9, %xmm11, %xmm6
  7822. vpslld $31, %xmm8, %xmm12
  7823. vpslld $30, %xmm8, %xmm13
  7824. vpslld $25, %xmm8, %xmm14
  7825. vpxor %xmm13, %xmm12, %xmm12
  7826. vpxor %xmm14, %xmm12, %xmm12
  7827. vpsrldq $4, %xmm12, %xmm13
  7828. vpslldq $12, %xmm12, %xmm12
  7829. vpxor %xmm12, %xmm8, %xmm8
  7830. vpsrld $0x01, %xmm8, %xmm14
  7831. vpsrld $2, %xmm8, %xmm10
  7832. vpsrld $7, %xmm8, %xmm9
  7833. vpxor %xmm10, %xmm14, %xmm14
  7834. vpxor %xmm9, %xmm14, %xmm14
  7835. vpxor %xmm13, %xmm14, %xmm14
  7836. vpxor %xmm8, %xmm14, %xmm14
  7837. vpxor %xmm14, %xmm6, %xmm6
  7838. L_AES_GCM_encrypt_avx1_aesenc_last15_enc_avx_done:
  7839. L_AES_GCM_encrypt_avx1_done_enc:
  7840. movl %r9d, %edx
  7841. movl %r11d, %ecx
  7842. shlq $3, %rdx
  7843. shlq $3, %rcx
  7844. vpinsrq $0x00, %rdx, %xmm0, %xmm0
  7845. vpinsrq $0x01, %rcx, %xmm0, %xmm0
  7846. vpxor %xmm0, %xmm6, %xmm6
  7847. # ghash_gfmul_red_avx
  7848. vpshufd $0x4e, %xmm5, %xmm9
  7849. vpshufd $0x4e, %xmm6, %xmm10
  7850. vpclmulqdq $0x11, %xmm5, %xmm6, %xmm11
  7851. vpclmulqdq $0x00, %xmm5, %xmm6, %xmm8
  7852. vpxor %xmm5, %xmm9, %xmm9
  7853. vpxor %xmm6, %xmm10, %xmm10
  7854. vpclmulqdq $0x00, %xmm10, %xmm9, %xmm9
  7855. vpxor %xmm8, %xmm9, %xmm9
  7856. vpxor %xmm11, %xmm9, %xmm9
  7857. vpslldq $8, %xmm9, %xmm10
  7858. vpsrldq $8, %xmm9, %xmm9
  7859. vpxor %xmm10, %xmm8, %xmm8
  7860. vpxor %xmm9, %xmm11, %xmm6
  7861. vpslld $31, %xmm8, %xmm12
  7862. vpslld $30, %xmm8, %xmm13
  7863. vpslld $25, %xmm8, %xmm14
  7864. vpxor %xmm13, %xmm12, %xmm12
  7865. vpxor %xmm14, %xmm12, %xmm12
  7866. vpsrldq $4, %xmm12, %xmm13
  7867. vpslldq $12, %xmm12, %xmm12
  7868. vpxor %xmm12, %xmm8, %xmm8
  7869. vpsrld $0x01, %xmm8, %xmm14
  7870. vpsrld $2, %xmm8, %xmm10
  7871. vpsrld $7, %xmm8, %xmm9
  7872. vpxor %xmm10, %xmm14, %xmm14
  7873. vpxor %xmm9, %xmm14, %xmm14
  7874. vpxor %xmm13, %xmm14, %xmm14
  7875. vpxor %xmm8, %xmm14, %xmm14
  7876. vpxor %xmm14, %xmm6, %xmm6
  7877. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm6, %xmm6
  7878. vpxor 144(%rsp), %xmm6, %xmm0
  7879. cmpl $16, %r14d
  7880. je L_AES_GCM_encrypt_avx1_store_tag_16
  7881. xorq %rcx, %rcx
  7882. vmovdqu %xmm0, (%rsp)
  7883. L_AES_GCM_encrypt_avx1_store_tag_loop:
  7884. movzbl (%rsp,%rcx,1), %r13d
  7885. movb %r13b, (%r8,%rcx,1)
  7886. incl %ecx
  7887. cmpl %r14d, %ecx
  7888. jne L_AES_GCM_encrypt_avx1_store_tag_loop
  7889. jmp L_AES_GCM_encrypt_avx1_store_tag_done
  7890. L_AES_GCM_encrypt_avx1_store_tag_16:
  7891. vmovdqu %xmm0, (%r8)
  7892. L_AES_GCM_encrypt_avx1_store_tag_done:
  7893. vzeroupper
  7894. addq $0xa0, %rsp
  7895. popq %r15
  7896. popq %r14
  7897. popq %rbx
  7898. popq %r12
  7899. popq %r13
  7900. repz retq
  7901. #ifndef __APPLE__
  7902. .size AES_GCM_encrypt_avx1,.-AES_GCM_encrypt_avx1
  7903. #endif /* __APPLE__ */
  7904. #ifndef __APPLE__
  7905. .text
  7906. .globl AES_GCM_decrypt_avx1
  7907. .type AES_GCM_decrypt_avx1,@function
  7908. .align 16
  7909. AES_GCM_decrypt_avx1:
  7910. #else
  7911. .section __TEXT,__text
  7912. .globl _AES_GCM_decrypt_avx1
  7913. .p2align 4
  7914. _AES_GCM_decrypt_avx1:
  7915. #endif /* __APPLE__ */
  7916. pushq %r13
  7917. pushq %r12
  7918. pushq %rbx
  7919. pushq %r14
  7920. pushq %r15
  7921. pushq %rbp
  7922. movq %rdx, %r12
  7923. movq %rcx, %rax
  7924. movl 56(%rsp), %r11d
  7925. movl 64(%rsp), %ebx
  7926. movl 72(%rsp), %r14d
  7927. movq 80(%rsp), %r15
  7928. movl 88(%rsp), %r10d
  7929. movq 96(%rsp), %rbp
  7930. subq $0xa8, %rsp
  7931. vpxor %xmm4, %xmm4, %xmm4
  7932. vpxor %xmm6, %xmm6, %xmm6
  7933. cmpl $12, %ebx
  7934. movl %ebx, %edx
  7935. jne L_AES_GCM_decrypt_avx1_iv_not_12
  7936. # # Calculate values when IV is 12 bytes
  7937. # Set counter based on IV
  7938. movl $0x1000000, %ecx
  7939. vpinsrq $0x00, (%rax), %xmm4, %xmm4
  7940. vpinsrd $2, 8(%rax), %xmm4, %xmm4
  7941. vpinsrd $3, %ecx, %xmm4, %xmm4
  7942. # H = Encrypt X(=0) and T = Encrypt counter
  7943. vmovdqa (%r15), %xmm5
  7944. vpxor %xmm5, %xmm4, %xmm1
  7945. vmovdqa 16(%r15), %xmm7
  7946. vaesenc %xmm7, %xmm5, %xmm5
  7947. vaesenc %xmm7, %xmm1, %xmm1
  7948. vmovdqa 32(%r15), %xmm7
  7949. vaesenc %xmm7, %xmm5, %xmm5
  7950. vaesenc %xmm7, %xmm1, %xmm1
  7951. vmovdqa 48(%r15), %xmm7
  7952. vaesenc %xmm7, %xmm5, %xmm5
  7953. vaesenc %xmm7, %xmm1, %xmm1
  7954. vmovdqa 64(%r15), %xmm7
  7955. vaesenc %xmm7, %xmm5, %xmm5
  7956. vaesenc %xmm7, %xmm1, %xmm1
  7957. vmovdqa 80(%r15), %xmm7
  7958. vaesenc %xmm7, %xmm5, %xmm5
  7959. vaesenc %xmm7, %xmm1, %xmm1
  7960. vmovdqa 96(%r15), %xmm7
  7961. vaesenc %xmm7, %xmm5, %xmm5
  7962. vaesenc %xmm7, %xmm1, %xmm1
  7963. vmovdqa 112(%r15), %xmm7
  7964. vaesenc %xmm7, %xmm5, %xmm5
  7965. vaesenc %xmm7, %xmm1, %xmm1
  7966. vmovdqa 128(%r15), %xmm7
  7967. vaesenc %xmm7, %xmm5, %xmm5
  7968. vaesenc %xmm7, %xmm1, %xmm1
  7969. vmovdqa 144(%r15), %xmm7
  7970. vaesenc %xmm7, %xmm5, %xmm5
  7971. vaesenc %xmm7, %xmm1, %xmm1
  7972. cmpl $11, %r10d
  7973. vmovdqa 160(%r15), %xmm7
  7974. jl L_AES_GCM_decrypt_avx1_calc_iv_12_last
  7975. vaesenc %xmm7, %xmm5, %xmm5
  7976. vaesenc %xmm7, %xmm1, %xmm1
  7977. vmovdqa 176(%r15), %xmm7
  7978. vaesenc %xmm7, %xmm5, %xmm5
  7979. vaesenc %xmm7, %xmm1, %xmm1
  7980. cmpl $13, %r10d
  7981. vmovdqa 192(%r15), %xmm7
  7982. jl L_AES_GCM_decrypt_avx1_calc_iv_12_last
  7983. vaesenc %xmm7, %xmm5, %xmm5
  7984. vaesenc %xmm7, %xmm1, %xmm1
  7985. vmovdqa 208(%r15), %xmm7
  7986. vaesenc %xmm7, %xmm5, %xmm5
  7987. vaesenc %xmm7, %xmm1, %xmm1
  7988. vmovdqa 224(%r15), %xmm7
  7989. L_AES_GCM_decrypt_avx1_calc_iv_12_last:
  7990. vaesenclast %xmm7, %xmm5, %xmm5
  7991. vaesenclast %xmm7, %xmm1, %xmm1
  7992. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm5, %xmm5
  7993. vmovdqa %xmm1, 144(%rsp)
  7994. jmp L_AES_GCM_decrypt_avx1_iv_done
  7995. L_AES_GCM_decrypt_avx1_iv_not_12:
  7996. # Calculate values when IV is not 12 bytes
  7997. # H = Encrypt X(=0)
  7998. vmovdqa (%r15), %xmm5
  7999. vaesenc 16(%r15), %xmm5, %xmm5
  8000. vaesenc 32(%r15), %xmm5, %xmm5
  8001. vaesenc 48(%r15), %xmm5, %xmm5
  8002. vaesenc 64(%r15), %xmm5, %xmm5
  8003. vaesenc 80(%r15), %xmm5, %xmm5
  8004. vaesenc 96(%r15), %xmm5, %xmm5
  8005. vaesenc 112(%r15), %xmm5, %xmm5
  8006. vaesenc 128(%r15), %xmm5, %xmm5
  8007. vaesenc 144(%r15), %xmm5, %xmm5
  8008. cmpl $11, %r10d
  8009. vmovdqa 160(%r15), %xmm9
  8010. jl L_AES_GCM_decrypt_avx1_calc_iv_1_aesenc_avx_last
  8011. vaesenc %xmm9, %xmm5, %xmm5
  8012. vaesenc 176(%r15), %xmm5, %xmm5
  8013. cmpl $13, %r10d
  8014. vmovdqa 192(%r15), %xmm9
  8015. jl L_AES_GCM_decrypt_avx1_calc_iv_1_aesenc_avx_last
  8016. vaesenc %xmm9, %xmm5, %xmm5
  8017. vaesenc 208(%r15), %xmm5, %xmm5
  8018. vmovdqa 224(%r15), %xmm9
  8019. L_AES_GCM_decrypt_avx1_calc_iv_1_aesenc_avx_last:
  8020. vaesenclast %xmm9, %xmm5, %xmm5
  8021. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm5, %xmm5
  8022. # Calc counter
  8023. # Initialization vector
  8024. cmpl $0x00, %edx
  8025. movq $0x00, %rcx
  8026. je L_AES_GCM_decrypt_avx1_calc_iv_done
  8027. cmpl $16, %edx
  8028. jl L_AES_GCM_decrypt_avx1_calc_iv_lt16
  8029. andl $0xfffffff0, %edx
  8030. L_AES_GCM_decrypt_avx1_calc_iv_16_loop:
  8031. vmovdqu (%rax,%rcx,1), %xmm8
  8032. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm8, %xmm8
  8033. vpxor %xmm8, %xmm4, %xmm4
  8034. # ghash_gfmul_avx
  8035. vpshufd $0x4e, %xmm4, %xmm1
  8036. vpshufd $0x4e, %xmm5, %xmm2
  8037. vpclmulqdq $0x11, %xmm4, %xmm5, %xmm3
  8038. vpclmulqdq $0x00, %xmm4, %xmm5, %xmm0
  8039. vpxor %xmm4, %xmm1, %xmm1
  8040. vpxor %xmm5, %xmm2, %xmm2
  8041. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
  8042. vpxor %xmm0, %xmm1, %xmm1
  8043. vpxor %xmm3, %xmm1, %xmm1
  8044. vmovdqa %xmm0, %xmm7
  8045. vmovdqa %xmm3, %xmm4
  8046. vpslldq $8, %xmm1, %xmm2
  8047. vpsrldq $8, %xmm1, %xmm1
  8048. vpxor %xmm2, %xmm7, %xmm7
  8049. vpxor %xmm1, %xmm4, %xmm4
  8050. vpsrld $31, %xmm7, %xmm0
  8051. vpsrld $31, %xmm4, %xmm1
  8052. vpslld $0x01, %xmm7, %xmm7
  8053. vpslld $0x01, %xmm4, %xmm4
  8054. vpsrldq $12, %xmm0, %xmm2
  8055. vpslldq $4, %xmm0, %xmm0
  8056. vpslldq $4, %xmm1, %xmm1
  8057. vpor %xmm2, %xmm4, %xmm4
  8058. vpor %xmm0, %xmm7, %xmm7
  8059. vpor %xmm1, %xmm4, %xmm4
  8060. vpslld $31, %xmm7, %xmm0
  8061. vpslld $30, %xmm7, %xmm1
  8062. vpslld $25, %xmm7, %xmm2
  8063. vpxor %xmm1, %xmm0, %xmm0
  8064. vpxor %xmm2, %xmm0, %xmm0
  8065. vmovdqa %xmm0, %xmm1
  8066. vpsrldq $4, %xmm1, %xmm1
  8067. vpslldq $12, %xmm0, %xmm0
  8068. vpxor %xmm0, %xmm7, %xmm7
  8069. vpsrld $0x01, %xmm7, %xmm2
  8070. vpsrld $2, %xmm7, %xmm3
  8071. vpsrld $7, %xmm7, %xmm0
  8072. vpxor %xmm3, %xmm2, %xmm2
  8073. vpxor %xmm0, %xmm2, %xmm2
  8074. vpxor %xmm1, %xmm2, %xmm2
  8075. vpxor %xmm7, %xmm2, %xmm2
  8076. vpxor %xmm2, %xmm4, %xmm4
  8077. addl $16, %ecx
  8078. cmpl %edx, %ecx
  8079. jl L_AES_GCM_decrypt_avx1_calc_iv_16_loop
  8080. movl %ebx, %edx
  8081. cmpl %edx, %ecx
  8082. je L_AES_GCM_decrypt_avx1_calc_iv_done
  8083. L_AES_GCM_decrypt_avx1_calc_iv_lt16:
  8084. subq $16, %rsp
  8085. vpxor %xmm8, %xmm8, %xmm8
  8086. xorl %ebx, %ebx
  8087. vmovdqu %xmm8, (%rsp)
  8088. L_AES_GCM_decrypt_avx1_calc_iv_loop:
  8089. movzbl (%rax,%rcx,1), %r13d
  8090. movb %r13b, (%rsp,%rbx,1)
  8091. incl %ecx
  8092. incl %ebx
  8093. cmpl %edx, %ecx
  8094. jl L_AES_GCM_decrypt_avx1_calc_iv_loop
  8095. vmovdqu (%rsp), %xmm8
  8096. addq $16, %rsp
  8097. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm8, %xmm8
  8098. vpxor %xmm8, %xmm4, %xmm4
  8099. # ghash_gfmul_avx
  8100. vpshufd $0x4e, %xmm4, %xmm1
  8101. vpshufd $0x4e, %xmm5, %xmm2
  8102. vpclmulqdq $0x11, %xmm4, %xmm5, %xmm3
  8103. vpclmulqdq $0x00, %xmm4, %xmm5, %xmm0
  8104. vpxor %xmm4, %xmm1, %xmm1
  8105. vpxor %xmm5, %xmm2, %xmm2
  8106. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
  8107. vpxor %xmm0, %xmm1, %xmm1
  8108. vpxor %xmm3, %xmm1, %xmm1
  8109. vmovdqa %xmm0, %xmm7
  8110. vmovdqa %xmm3, %xmm4
  8111. vpslldq $8, %xmm1, %xmm2
  8112. vpsrldq $8, %xmm1, %xmm1
  8113. vpxor %xmm2, %xmm7, %xmm7
  8114. vpxor %xmm1, %xmm4, %xmm4
  8115. vpsrld $31, %xmm7, %xmm0
  8116. vpsrld $31, %xmm4, %xmm1
  8117. vpslld $0x01, %xmm7, %xmm7
  8118. vpslld $0x01, %xmm4, %xmm4
  8119. vpsrldq $12, %xmm0, %xmm2
  8120. vpslldq $4, %xmm0, %xmm0
  8121. vpslldq $4, %xmm1, %xmm1
  8122. vpor %xmm2, %xmm4, %xmm4
  8123. vpor %xmm0, %xmm7, %xmm7
  8124. vpor %xmm1, %xmm4, %xmm4
  8125. vpslld $31, %xmm7, %xmm0
  8126. vpslld $30, %xmm7, %xmm1
  8127. vpslld $25, %xmm7, %xmm2
  8128. vpxor %xmm1, %xmm0, %xmm0
  8129. vpxor %xmm2, %xmm0, %xmm0
  8130. vmovdqa %xmm0, %xmm1
  8131. vpsrldq $4, %xmm1, %xmm1
  8132. vpslldq $12, %xmm0, %xmm0
  8133. vpxor %xmm0, %xmm7, %xmm7
  8134. vpsrld $0x01, %xmm7, %xmm2
  8135. vpsrld $2, %xmm7, %xmm3
  8136. vpsrld $7, %xmm7, %xmm0
  8137. vpxor %xmm3, %xmm2, %xmm2
  8138. vpxor %xmm0, %xmm2, %xmm2
  8139. vpxor %xmm1, %xmm2, %xmm2
  8140. vpxor %xmm7, %xmm2, %xmm2
  8141. vpxor %xmm2, %xmm4, %xmm4
  8142. L_AES_GCM_decrypt_avx1_calc_iv_done:
  8143. # T = Encrypt counter
  8144. vpxor %xmm0, %xmm0, %xmm0
  8145. shll $3, %edx
  8146. vpinsrq $0x00, %rdx, %xmm0, %xmm0
  8147. vpxor %xmm0, %xmm4, %xmm4
  8148. # ghash_gfmul_avx
  8149. vpshufd $0x4e, %xmm4, %xmm1
  8150. vpshufd $0x4e, %xmm5, %xmm2
  8151. vpclmulqdq $0x11, %xmm4, %xmm5, %xmm3
  8152. vpclmulqdq $0x00, %xmm4, %xmm5, %xmm0
  8153. vpxor %xmm4, %xmm1, %xmm1
  8154. vpxor %xmm5, %xmm2, %xmm2
  8155. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
  8156. vpxor %xmm0, %xmm1, %xmm1
  8157. vpxor %xmm3, %xmm1, %xmm1
  8158. vmovdqa %xmm0, %xmm7
  8159. vmovdqa %xmm3, %xmm4
  8160. vpslldq $8, %xmm1, %xmm2
  8161. vpsrldq $8, %xmm1, %xmm1
  8162. vpxor %xmm2, %xmm7, %xmm7
  8163. vpxor %xmm1, %xmm4, %xmm4
  8164. vpsrld $31, %xmm7, %xmm0
  8165. vpsrld $31, %xmm4, %xmm1
  8166. vpslld $0x01, %xmm7, %xmm7
  8167. vpslld $0x01, %xmm4, %xmm4
  8168. vpsrldq $12, %xmm0, %xmm2
  8169. vpslldq $4, %xmm0, %xmm0
  8170. vpslldq $4, %xmm1, %xmm1
  8171. vpor %xmm2, %xmm4, %xmm4
  8172. vpor %xmm0, %xmm7, %xmm7
  8173. vpor %xmm1, %xmm4, %xmm4
  8174. vpslld $31, %xmm7, %xmm0
  8175. vpslld $30, %xmm7, %xmm1
  8176. vpslld $25, %xmm7, %xmm2
  8177. vpxor %xmm1, %xmm0, %xmm0
  8178. vpxor %xmm2, %xmm0, %xmm0
  8179. vmovdqa %xmm0, %xmm1
  8180. vpsrldq $4, %xmm1, %xmm1
  8181. vpslldq $12, %xmm0, %xmm0
  8182. vpxor %xmm0, %xmm7, %xmm7
  8183. vpsrld $0x01, %xmm7, %xmm2
  8184. vpsrld $2, %xmm7, %xmm3
  8185. vpsrld $7, %xmm7, %xmm0
  8186. vpxor %xmm3, %xmm2, %xmm2
  8187. vpxor %xmm0, %xmm2, %xmm2
  8188. vpxor %xmm1, %xmm2, %xmm2
  8189. vpxor %xmm7, %xmm2, %xmm2
  8190. vpxor %xmm2, %xmm4, %xmm4
  8191. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm4, %xmm4
  8192. # Encrypt counter
  8193. vmovdqa (%r15), %xmm8
  8194. vpxor %xmm4, %xmm8, %xmm8
  8195. vaesenc 16(%r15), %xmm8, %xmm8
  8196. vaesenc 32(%r15), %xmm8, %xmm8
  8197. vaesenc 48(%r15), %xmm8, %xmm8
  8198. vaesenc 64(%r15), %xmm8, %xmm8
  8199. vaesenc 80(%r15), %xmm8, %xmm8
  8200. vaesenc 96(%r15), %xmm8, %xmm8
  8201. vaesenc 112(%r15), %xmm8, %xmm8
  8202. vaesenc 128(%r15), %xmm8, %xmm8
  8203. vaesenc 144(%r15), %xmm8, %xmm8
  8204. cmpl $11, %r10d
  8205. vmovdqa 160(%r15), %xmm9
  8206. jl L_AES_GCM_decrypt_avx1_calc_iv_2_aesenc_avx_last
  8207. vaesenc %xmm9, %xmm8, %xmm8
  8208. vaesenc 176(%r15), %xmm8, %xmm8
  8209. cmpl $13, %r10d
  8210. vmovdqa 192(%r15), %xmm9
  8211. jl L_AES_GCM_decrypt_avx1_calc_iv_2_aesenc_avx_last
  8212. vaesenc %xmm9, %xmm8, %xmm8
  8213. vaesenc 208(%r15), %xmm8, %xmm8
  8214. vmovdqa 224(%r15), %xmm9
  8215. L_AES_GCM_decrypt_avx1_calc_iv_2_aesenc_avx_last:
  8216. vaesenclast %xmm9, %xmm8, %xmm8
  8217. vmovdqa %xmm8, 144(%rsp)
  8218. L_AES_GCM_decrypt_avx1_iv_done:
  8219. # Additional authentication data
  8220. movl %r11d, %edx
  8221. cmpl $0x00, %edx
  8222. je L_AES_GCM_decrypt_avx1_calc_aad_done
  8223. xorl %ecx, %ecx
  8224. cmpl $16, %edx
  8225. jl L_AES_GCM_decrypt_avx1_calc_aad_lt16
  8226. andl $0xfffffff0, %edx
  8227. L_AES_GCM_decrypt_avx1_calc_aad_16_loop:
  8228. vmovdqu (%r12,%rcx,1), %xmm8
  8229. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm8, %xmm8
  8230. vpxor %xmm8, %xmm6, %xmm6
  8231. # ghash_gfmul_avx
  8232. vpshufd $0x4e, %xmm6, %xmm1
  8233. vpshufd $0x4e, %xmm5, %xmm2
  8234. vpclmulqdq $0x11, %xmm6, %xmm5, %xmm3
  8235. vpclmulqdq $0x00, %xmm6, %xmm5, %xmm0
  8236. vpxor %xmm6, %xmm1, %xmm1
  8237. vpxor %xmm5, %xmm2, %xmm2
  8238. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
  8239. vpxor %xmm0, %xmm1, %xmm1
  8240. vpxor %xmm3, %xmm1, %xmm1
  8241. vmovdqa %xmm0, %xmm7
  8242. vmovdqa %xmm3, %xmm6
  8243. vpslldq $8, %xmm1, %xmm2
  8244. vpsrldq $8, %xmm1, %xmm1
  8245. vpxor %xmm2, %xmm7, %xmm7
  8246. vpxor %xmm1, %xmm6, %xmm6
  8247. vpsrld $31, %xmm7, %xmm0
  8248. vpsrld $31, %xmm6, %xmm1
  8249. vpslld $0x01, %xmm7, %xmm7
  8250. vpslld $0x01, %xmm6, %xmm6
  8251. vpsrldq $12, %xmm0, %xmm2
  8252. vpslldq $4, %xmm0, %xmm0
  8253. vpslldq $4, %xmm1, %xmm1
  8254. vpor %xmm2, %xmm6, %xmm6
  8255. vpor %xmm0, %xmm7, %xmm7
  8256. vpor %xmm1, %xmm6, %xmm6
  8257. vpslld $31, %xmm7, %xmm0
  8258. vpslld $30, %xmm7, %xmm1
  8259. vpslld $25, %xmm7, %xmm2
  8260. vpxor %xmm1, %xmm0, %xmm0
  8261. vpxor %xmm2, %xmm0, %xmm0
  8262. vmovdqa %xmm0, %xmm1
  8263. vpsrldq $4, %xmm1, %xmm1
  8264. vpslldq $12, %xmm0, %xmm0
  8265. vpxor %xmm0, %xmm7, %xmm7
  8266. vpsrld $0x01, %xmm7, %xmm2
  8267. vpsrld $2, %xmm7, %xmm3
  8268. vpsrld $7, %xmm7, %xmm0
  8269. vpxor %xmm3, %xmm2, %xmm2
  8270. vpxor %xmm0, %xmm2, %xmm2
  8271. vpxor %xmm1, %xmm2, %xmm2
  8272. vpxor %xmm7, %xmm2, %xmm2
  8273. vpxor %xmm2, %xmm6, %xmm6
  8274. addl $16, %ecx
  8275. cmpl %edx, %ecx
  8276. jl L_AES_GCM_decrypt_avx1_calc_aad_16_loop
  8277. movl %r11d, %edx
  8278. cmpl %edx, %ecx
  8279. je L_AES_GCM_decrypt_avx1_calc_aad_done
  8280. L_AES_GCM_decrypt_avx1_calc_aad_lt16:
  8281. subq $16, %rsp
  8282. vpxor %xmm8, %xmm8, %xmm8
  8283. xorl %ebx, %ebx
  8284. vmovdqu %xmm8, (%rsp)
  8285. L_AES_GCM_decrypt_avx1_calc_aad_loop:
  8286. movzbl (%r12,%rcx,1), %r13d
  8287. movb %r13b, (%rsp,%rbx,1)
  8288. incl %ecx
  8289. incl %ebx
  8290. cmpl %edx, %ecx
  8291. jl L_AES_GCM_decrypt_avx1_calc_aad_loop
  8292. vmovdqu (%rsp), %xmm8
  8293. addq $16, %rsp
  8294. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm8, %xmm8
  8295. vpxor %xmm8, %xmm6, %xmm6
  8296. # ghash_gfmul_avx
  8297. vpshufd $0x4e, %xmm6, %xmm1
  8298. vpshufd $0x4e, %xmm5, %xmm2
  8299. vpclmulqdq $0x11, %xmm6, %xmm5, %xmm3
  8300. vpclmulqdq $0x00, %xmm6, %xmm5, %xmm0
  8301. vpxor %xmm6, %xmm1, %xmm1
  8302. vpxor %xmm5, %xmm2, %xmm2
  8303. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
  8304. vpxor %xmm0, %xmm1, %xmm1
  8305. vpxor %xmm3, %xmm1, %xmm1
  8306. vmovdqa %xmm0, %xmm7
  8307. vmovdqa %xmm3, %xmm6
  8308. vpslldq $8, %xmm1, %xmm2
  8309. vpsrldq $8, %xmm1, %xmm1
  8310. vpxor %xmm2, %xmm7, %xmm7
  8311. vpxor %xmm1, %xmm6, %xmm6
  8312. vpsrld $31, %xmm7, %xmm0
  8313. vpsrld $31, %xmm6, %xmm1
  8314. vpslld $0x01, %xmm7, %xmm7
  8315. vpslld $0x01, %xmm6, %xmm6
  8316. vpsrldq $12, %xmm0, %xmm2
  8317. vpslldq $4, %xmm0, %xmm0
  8318. vpslldq $4, %xmm1, %xmm1
  8319. vpor %xmm2, %xmm6, %xmm6
  8320. vpor %xmm0, %xmm7, %xmm7
  8321. vpor %xmm1, %xmm6, %xmm6
  8322. vpslld $31, %xmm7, %xmm0
  8323. vpslld $30, %xmm7, %xmm1
  8324. vpslld $25, %xmm7, %xmm2
  8325. vpxor %xmm1, %xmm0, %xmm0
  8326. vpxor %xmm2, %xmm0, %xmm0
  8327. vmovdqa %xmm0, %xmm1
  8328. vpsrldq $4, %xmm1, %xmm1
  8329. vpslldq $12, %xmm0, %xmm0
  8330. vpxor %xmm0, %xmm7, %xmm7
  8331. vpsrld $0x01, %xmm7, %xmm2
  8332. vpsrld $2, %xmm7, %xmm3
  8333. vpsrld $7, %xmm7, %xmm0
  8334. vpxor %xmm3, %xmm2, %xmm2
  8335. vpxor %xmm0, %xmm2, %xmm2
  8336. vpxor %xmm1, %xmm2, %xmm2
  8337. vpxor %xmm7, %xmm2, %xmm2
  8338. vpxor %xmm2, %xmm6, %xmm6
  8339. L_AES_GCM_decrypt_avx1_calc_aad_done:
  8340. # Calculate counter and H
  8341. vpsrlq $63, %xmm5, %xmm9
  8342. vpsllq $0x01, %xmm5, %xmm8
  8343. vpslldq $8, %xmm9, %xmm9
  8344. vpor %xmm9, %xmm8, %xmm8
  8345. vpshufd $0xff, %xmm5, %xmm5
  8346. vpsrad $31, %xmm5, %xmm5
  8347. vpshufb L_avx1_aes_gcm_bswap_epi64(%rip), %xmm4, %xmm4
  8348. vpand L_avx1_aes_gcm_mod2_128(%rip), %xmm5, %xmm5
  8349. vpaddd L_avx1_aes_gcm_one(%rip), %xmm4, %xmm4
  8350. vpxor %xmm8, %xmm5, %xmm5
  8351. vmovdqa %xmm4, 128(%rsp)
  8352. xorl %ebx, %ebx
  8353. cmpl $0x80, %r9d
  8354. movl %r9d, %r13d
  8355. jl L_AES_GCM_decrypt_avx1_done_128
  8356. andl $0xffffff80, %r13d
  8357. vmovdqa %xmm6, %xmm2
  8358. # H ^ 1
  8359. vmovdqa %xmm5, (%rsp)
  8360. # H ^ 2
  8361. vpclmulqdq $0x00, %xmm5, %xmm5, %xmm8
  8362. vpclmulqdq $0x11, %xmm5, %xmm5, %xmm0
  8363. vpslld $31, %xmm8, %xmm12
  8364. vpslld $30, %xmm8, %xmm13
  8365. vpslld $25, %xmm8, %xmm14
  8366. vpxor %xmm13, %xmm12, %xmm12
  8367. vpxor %xmm14, %xmm12, %xmm12
  8368. vpsrldq $4, %xmm12, %xmm13
  8369. vpslldq $12, %xmm12, %xmm12
  8370. vpxor %xmm12, %xmm8, %xmm8
  8371. vpsrld $0x01, %xmm8, %xmm14
  8372. vpsrld $2, %xmm8, %xmm10
  8373. vpsrld $7, %xmm8, %xmm9
  8374. vpxor %xmm10, %xmm14, %xmm14
  8375. vpxor %xmm9, %xmm14, %xmm14
  8376. vpxor %xmm13, %xmm14, %xmm14
  8377. vpxor %xmm8, %xmm14, %xmm14
  8378. vpxor %xmm14, %xmm0, %xmm0
  8379. vmovdqa %xmm0, 16(%rsp)
  8380. # H ^ 3
  8381. # ghash_gfmul_red_avx
  8382. vpshufd $0x4e, %xmm5, %xmm9
  8383. vpshufd $0x4e, %xmm0, %xmm10
  8384. vpclmulqdq $0x11, %xmm5, %xmm0, %xmm11
  8385. vpclmulqdq $0x00, %xmm5, %xmm0, %xmm8
  8386. vpxor %xmm5, %xmm9, %xmm9
  8387. vpxor %xmm0, %xmm10, %xmm10
  8388. vpclmulqdq $0x00, %xmm10, %xmm9, %xmm9
  8389. vpxor %xmm8, %xmm9, %xmm9
  8390. vpxor %xmm11, %xmm9, %xmm9
  8391. vpslldq $8, %xmm9, %xmm10
  8392. vpsrldq $8, %xmm9, %xmm9
  8393. vpxor %xmm10, %xmm8, %xmm8
  8394. vpxor %xmm9, %xmm11, %xmm1
  8395. vpslld $31, %xmm8, %xmm12
  8396. vpslld $30, %xmm8, %xmm13
  8397. vpslld $25, %xmm8, %xmm14
  8398. vpxor %xmm13, %xmm12, %xmm12
  8399. vpxor %xmm14, %xmm12, %xmm12
  8400. vpsrldq $4, %xmm12, %xmm13
  8401. vpslldq $12, %xmm12, %xmm12
  8402. vpxor %xmm12, %xmm8, %xmm8
  8403. vpsrld $0x01, %xmm8, %xmm14
  8404. vpsrld $2, %xmm8, %xmm10
  8405. vpsrld $7, %xmm8, %xmm9
  8406. vpxor %xmm10, %xmm14, %xmm14
  8407. vpxor %xmm9, %xmm14, %xmm14
  8408. vpxor %xmm13, %xmm14, %xmm14
  8409. vpxor %xmm8, %xmm14, %xmm14
  8410. vpxor %xmm14, %xmm1, %xmm1
  8411. vmovdqa %xmm1, 32(%rsp)
  8412. # H ^ 4
  8413. vpclmulqdq $0x00, %xmm0, %xmm0, %xmm8
  8414. vpclmulqdq $0x11, %xmm0, %xmm0, %xmm3
  8415. vpslld $31, %xmm8, %xmm12
  8416. vpslld $30, %xmm8, %xmm13
  8417. vpslld $25, %xmm8, %xmm14
  8418. vpxor %xmm13, %xmm12, %xmm12
  8419. vpxor %xmm14, %xmm12, %xmm12
  8420. vpsrldq $4, %xmm12, %xmm13
  8421. vpslldq $12, %xmm12, %xmm12
  8422. vpxor %xmm12, %xmm8, %xmm8
  8423. vpsrld $0x01, %xmm8, %xmm14
  8424. vpsrld $2, %xmm8, %xmm10
  8425. vpsrld $7, %xmm8, %xmm9
  8426. vpxor %xmm10, %xmm14, %xmm14
  8427. vpxor %xmm9, %xmm14, %xmm14
  8428. vpxor %xmm13, %xmm14, %xmm14
  8429. vpxor %xmm8, %xmm14, %xmm14
  8430. vpxor %xmm14, %xmm3, %xmm3
  8431. vmovdqa %xmm3, 48(%rsp)
  8432. # H ^ 5
  8433. # ghash_gfmul_red_avx
  8434. vpshufd $0x4e, %xmm0, %xmm9
  8435. vpshufd $0x4e, %xmm1, %xmm10
  8436. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm11
  8437. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm8
  8438. vpxor %xmm0, %xmm9, %xmm9
  8439. vpxor %xmm1, %xmm10, %xmm10
  8440. vpclmulqdq $0x00, %xmm10, %xmm9, %xmm9
  8441. vpxor %xmm8, %xmm9, %xmm9
  8442. vpxor %xmm11, %xmm9, %xmm9
  8443. vpslldq $8, %xmm9, %xmm10
  8444. vpsrldq $8, %xmm9, %xmm9
  8445. vpxor %xmm10, %xmm8, %xmm8
  8446. vpxor %xmm9, %xmm11, %xmm7
  8447. vpslld $31, %xmm8, %xmm12
  8448. vpslld $30, %xmm8, %xmm13
  8449. vpslld $25, %xmm8, %xmm14
  8450. vpxor %xmm13, %xmm12, %xmm12
  8451. vpxor %xmm14, %xmm12, %xmm12
  8452. vpsrldq $4, %xmm12, %xmm13
  8453. vpslldq $12, %xmm12, %xmm12
  8454. vpxor %xmm12, %xmm8, %xmm8
  8455. vpsrld $0x01, %xmm8, %xmm14
  8456. vpsrld $2, %xmm8, %xmm10
  8457. vpsrld $7, %xmm8, %xmm9
  8458. vpxor %xmm10, %xmm14, %xmm14
  8459. vpxor %xmm9, %xmm14, %xmm14
  8460. vpxor %xmm13, %xmm14, %xmm14
  8461. vpxor %xmm8, %xmm14, %xmm14
  8462. vpxor %xmm14, %xmm7, %xmm7
  8463. vmovdqa %xmm7, 64(%rsp)
  8464. # H ^ 6
  8465. vpclmulqdq $0x00, %xmm1, %xmm1, %xmm8
  8466. vpclmulqdq $0x11, %xmm1, %xmm1, %xmm7
  8467. vpslld $31, %xmm8, %xmm12
  8468. vpslld $30, %xmm8, %xmm13
  8469. vpslld $25, %xmm8, %xmm14
  8470. vpxor %xmm13, %xmm12, %xmm12
  8471. vpxor %xmm14, %xmm12, %xmm12
  8472. vpsrldq $4, %xmm12, %xmm13
  8473. vpslldq $12, %xmm12, %xmm12
  8474. vpxor %xmm12, %xmm8, %xmm8
  8475. vpsrld $0x01, %xmm8, %xmm14
  8476. vpsrld $2, %xmm8, %xmm10
  8477. vpsrld $7, %xmm8, %xmm9
  8478. vpxor %xmm10, %xmm14, %xmm14
  8479. vpxor %xmm9, %xmm14, %xmm14
  8480. vpxor %xmm13, %xmm14, %xmm14
  8481. vpxor %xmm8, %xmm14, %xmm14
  8482. vpxor %xmm14, %xmm7, %xmm7
  8483. vmovdqa %xmm7, 80(%rsp)
  8484. # H ^ 7
  8485. # ghash_gfmul_red_avx
  8486. vpshufd $0x4e, %xmm1, %xmm9
  8487. vpshufd $0x4e, %xmm3, %xmm10
  8488. vpclmulqdq $0x11, %xmm1, %xmm3, %xmm11
  8489. vpclmulqdq $0x00, %xmm1, %xmm3, %xmm8
  8490. vpxor %xmm1, %xmm9, %xmm9
  8491. vpxor %xmm3, %xmm10, %xmm10
  8492. vpclmulqdq $0x00, %xmm10, %xmm9, %xmm9
  8493. vpxor %xmm8, %xmm9, %xmm9
  8494. vpxor %xmm11, %xmm9, %xmm9
  8495. vpslldq $8, %xmm9, %xmm10
  8496. vpsrldq $8, %xmm9, %xmm9
  8497. vpxor %xmm10, %xmm8, %xmm8
  8498. vpxor %xmm9, %xmm11, %xmm7
  8499. vpslld $31, %xmm8, %xmm12
  8500. vpslld $30, %xmm8, %xmm13
  8501. vpslld $25, %xmm8, %xmm14
  8502. vpxor %xmm13, %xmm12, %xmm12
  8503. vpxor %xmm14, %xmm12, %xmm12
  8504. vpsrldq $4, %xmm12, %xmm13
  8505. vpslldq $12, %xmm12, %xmm12
  8506. vpxor %xmm12, %xmm8, %xmm8
  8507. vpsrld $0x01, %xmm8, %xmm14
  8508. vpsrld $2, %xmm8, %xmm10
  8509. vpsrld $7, %xmm8, %xmm9
  8510. vpxor %xmm10, %xmm14, %xmm14
  8511. vpxor %xmm9, %xmm14, %xmm14
  8512. vpxor %xmm13, %xmm14, %xmm14
  8513. vpxor %xmm8, %xmm14, %xmm14
  8514. vpxor %xmm14, %xmm7, %xmm7
  8515. vmovdqa %xmm7, 96(%rsp)
  8516. # H ^ 8
  8517. vpclmulqdq $0x00, %xmm3, %xmm3, %xmm8
  8518. vpclmulqdq $0x11, %xmm3, %xmm3, %xmm7
  8519. vpslld $31, %xmm8, %xmm12
  8520. vpslld $30, %xmm8, %xmm13
  8521. vpslld $25, %xmm8, %xmm14
  8522. vpxor %xmm13, %xmm12, %xmm12
  8523. vpxor %xmm14, %xmm12, %xmm12
  8524. vpsrldq $4, %xmm12, %xmm13
  8525. vpslldq $12, %xmm12, %xmm12
  8526. vpxor %xmm12, %xmm8, %xmm8
  8527. vpsrld $0x01, %xmm8, %xmm14
  8528. vpsrld $2, %xmm8, %xmm10
  8529. vpsrld $7, %xmm8, %xmm9
  8530. vpxor %xmm10, %xmm14, %xmm14
  8531. vpxor %xmm9, %xmm14, %xmm14
  8532. vpxor %xmm13, %xmm14, %xmm14
  8533. vpxor %xmm8, %xmm14, %xmm14
  8534. vpxor %xmm14, %xmm7, %xmm7
  8535. vmovdqa %xmm7, 112(%rsp)
  8536. L_AES_GCM_decrypt_avx1_ghash_128:
  8537. leaq (%rdi,%rbx,1), %rcx
  8538. leaq (%rsi,%rbx,1), %rdx
  8539. vmovdqa 128(%rsp), %xmm0
  8540. vmovdqa L_avx1_aes_gcm_bswap_epi64(%rip), %xmm1
  8541. vpshufb %xmm1, %xmm0, %xmm8
  8542. vpaddd L_avx1_aes_gcm_one(%rip), %xmm0, %xmm9
  8543. vpshufb %xmm1, %xmm9, %xmm9
  8544. vpaddd L_avx1_aes_gcm_two(%rip), %xmm0, %xmm10
  8545. vpshufb %xmm1, %xmm10, %xmm10
  8546. vpaddd L_avx1_aes_gcm_three(%rip), %xmm0, %xmm11
  8547. vpshufb %xmm1, %xmm11, %xmm11
  8548. vpaddd L_avx1_aes_gcm_four(%rip), %xmm0, %xmm12
  8549. vpshufb %xmm1, %xmm12, %xmm12
  8550. vpaddd L_avx1_aes_gcm_five(%rip), %xmm0, %xmm13
  8551. vpshufb %xmm1, %xmm13, %xmm13
  8552. vpaddd L_avx1_aes_gcm_six(%rip), %xmm0, %xmm14
  8553. vpshufb %xmm1, %xmm14, %xmm14
  8554. vpaddd L_avx1_aes_gcm_seven(%rip), %xmm0, %xmm15
  8555. vpshufb %xmm1, %xmm15, %xmm15
  8556. vpaddd L_avx1_aes_gcm_eight(%rip), %xmm0, %xmm0
  8557. vmovdqa (%r15), %xmm7
  8558. vmovdqa %xmm0, 128(%rsp)
  8559. vpxor %xmm7, %xmm8, %xmm8
  8560. vpxor %xmm7, %xmm9, %xmm9
  8561. vpxor %xmm7, %xmm10, %xmm10
  8562. vpxor %xmm7, %xmm11, %xmm11
  8563. vpxor %xmm7, %xmm12, %xmm12
  8564. vpxor %xmm7, %xmm13, %xmm13
  8565. vpxor %xmm7, %xmm14, %xmm14
  8566. vpxor %xmm7, %xmm15, %xmm15
  8567. vmovdqa 112(%rsp), %xmm7
  8568. vmovdqu (%rcx), %xmm0
  8569. vaesenc 16(%r15), %xmm8, %xmm8
  8570. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  8571. vpxor %xmm2, %xmm0, %xmm0
  8572. vpshufd $0x4e, %xmm7, %xmm1
  8573. vpshufd $0x4e, %xmm0, %xmm5
  8574. vpxor %xmm7, %xmm1, %xmm1
  8575. vpxor %xmm0, %xmm5, %xmm5
  8576. vpclmulqdq $0x11, %xmm7, %xmm0, %xmm3
  8577. vaesenc 16(%r15), %xmm9, %xmm9
  8578. vaesenc 16(%r15), %xmm10, %xmm10
  8579. vpclmulqdq $0x00, %xmm7, %xmm0, %xmm2
  8580. vaesenc 16(%r15), %xmm11, %xmm11
  8581. vaesenc 16(%r15), %xmm12, %xmm12
  8582. vpclmulqdq $0x00, %xmm5, %xmm1, %xmm1
  8583. vaesenc 16(%r15), %xmm13, %xmm13
  8584. vaesenc 16(%r15), %xmm14, %xmm14
  8585. vaesenc 16(%r15), %xmm15, %xmm15
  8586. vpxor %xmm2, %xmm1, %xmm1
  8587. vpxor %xmm3, %xmm1, %xmm1
  8588. vmovdqa 96(%rsp), %xmm7
  8589. vmovdqu 16(%rcx), %xmm0
  8590. vpshufd $0x4e, %xmm7, %xmm4
  8591. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  8592. vaesenc 32(%r15), %xmm8, %xmm8
  8593. vpxor %xmm7, %xmm4, %xmm4
  8594. vpshufd $0x4e, %xmm0, %xmm5
  8595. vpxor %xmm0, %xmm5, %xmm5
  8596. vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
  8597. vaesenc 32(%r15), %xmm9, %xmm9
  8598. vaesenc 32(%r15), %xmm10, %xmm10
  8599. vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
  8600. vaesenc 32(%r15), %xmm11, %xmm11
  8601. vaesenc 32(%r15), %xmm12, %xmm12
  8602. vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
  8603. vaesenc 32(%r15), %xmm13, %xmm13
  8604. vaesenc 32(%r15), %xmm14, %xmm14
  8605. vaesenc 32(%r15), %xmm15, %xmm15
  8606. vpxor %xmm7, %xmm1, %xmm1
  8607. vpxor %xmm7, %xmm2, %xmm2
  8608. vpxor %xmm6, %xmm1, %xmm1
  8609. vpxor %xmm6, %xmm3, %xmm3
  8610. vpxor %xmm4, %xmm1, %xmm1
  8611. vmovdqa 80(%rsp), %xmm7
  8612. vmovdqu 32(%rcx), %xmm0
  8613. vpshufd $0x4e, %xmm7, %xmm4
  8614. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  8615. vaesenc 48(%r15), %xmm8, %xmm8
  8616. vpxor %xmm7, %xmm4, %xmm4
  8617. vpshufd $0x4e, %xmm0, %xmm5
  8618. vpxor %xmm0, %xmm5, %xmm5
  8619. vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
  8620. vaesenc 48(%r15), %xmm9, %xmm9
  8621. vaesenc 48(%r15), %xmm10, %xmm10
  8622. vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
  8623. vaesenc 48(%r15), %xmm11, %xmm11
  8624. vaesenc 48(%r15), %xmm12, %xmm12
  8625. vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
  8626. vaesenc 48(%r15), %xmm13, %xmm13
  8627. vaesenc 48(%r15), %xmm14, %xmm14
  8628. vaesenc 48(%r15), %xmm15, %xmm15
  8629. vpxor %xmm7, %xmm1, %xmm1
  8630. vpxor %xmm7, %xmm2, %xmm2
  8631. vpxor %xmm6, %xmm1, %xmm1
  8632. vpxor %xmm6, %xmm3, %xmm3
  8633. vpxor %xmm4, %xmm1, %xmm1
  8634. vmovdqa 64(%rsp), %xmm7
  8635. vmovdqu 48(%rcx), %xmm0
  8636. vpshufd $0x4e, %xmm7, %xmm4
  8637. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  8638. vaesenc 64(%r15), %xmm8, %xmm8
  8639. vpxor %xmm7, %xmm4, %xmm4
  8640. vpshufd $0x4e, %xmm0, %xmm5
  8641. vpxor %xmm0, %xmm5, %xmm5
  8642. vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
  8643. vaesenc 64(%r15), %xmm9, %xmm9
  8644. vaesenc 64(%r15), %xmm10, %xmm10
  8645. vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
  8646. vaesenc 64(%r15), %xmm11, %xmm11
  8647. vaesenc 64(%r15), %xmm12, %xmm12
  8648. vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
  8649. vaesenc 64(%r15), %xmm13, %xmm13
  8650. vaesenc 64(%r15), %xmm14, %xmm14
  8651. vaesenc 64(%r15), %xmm15, %xmm15
  8652. vpxor %xmm7, %xmm1, %xmm1
  8653. vpxor %xmm7, %xmm2, %xmm2
  8654. vpxor %xmm6, %xmm1, %xmm1
  8655. vpxor %xmm6, %xmm3, %xmm3
  8656. vpxor %xmm4, %xmm1, %xmm1
  8657. vmovdqa 48(%rsp), %xmm7
  8658. vmovdqu 64(%rcx), %xmm0
  8659. vpshufd $0x4e, %xmm7, %xmm4
  8660. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  8661. vaesenc 80(%r15), %xmm8, %xmm8
  8662. vpxor %xmm7, %xmm4, %xmm4
  8663. vpshufd $0x4e, %xmm0, %xmm5
  8664. vpxor %xmm0, %xmm5, %xmm5
  8665. vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
  8666. vaesenc 80(%r15), %xmm9, %xmm9
  8667. vaesenc 80(%r15), %xmm10, %xmm10
  8668. vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
  8669. vaesenc 80(%r15), %xmm11, %xmm11
  8670. vaesenc 80(%r15), %xmm12, %xmm12
  8671. vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
  8672. vaesenc 80(%r15), %xmm13, %xmm13
  8673. vaesenc 80(%r15), %xmm14, %xmm14
  8674. vaesenc 80(%r15), %xmm15, %xmm15
  8675. vpxor %xmm7, %xmm1, %xmm1
  8676. vpxor %xmm7, %xmm2, %xmm2
  8677. vpxor %xmm6, %xmm1, %xmm1
  8678. vpxor %xmm6, %xmm3, %xmm3
  8679. vpxor %xmm4, %xmm1, %xmm1
  8680. vmovdqa 32(%rsp), %xmm7
  8681. vmovdqu 80(%rcx), %xmm0
  8682. vpshufd $0x4e, %xmm7, %xmm4
  8683. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  8684. vaesenc 96(%r15), %xmm8, %xmm8
  8685. vpxor %xmm7, %xmm4, %xmm4
  8686. vpshufd $0x4e, %xmm0, %xmm5
  8687. vpxor %xmm0, %xmm5, %xmm5
  8688. vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
  8689. vaesenc 96(%r15), %xmm9, %xmm9
  8690. vaesenc 96(%r15), %xmm10, %xmm10
  8691. vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
  8692. vaesenc 96(%r15), %xmm11, %xmm11
  8693. vaesenc 96(%r15), %xmm12, %xmm12
  8694. vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
  8695. vaesenc 96(%r15), %xmm13, %xmm13
  8696. vaesenc 96(%r15), %xmm14, %xmm14
  8697. vaesenc 96(%r15), %xmm15, %xmm15
  8698. vpxor %xmm7, %xmm1, %xmm1
  8699. vpxor %xmm7, %xmm2, %xmm2
  8700. vpxor %xmm6, %xmm1, %xmm1
  8701. vpxor %xmm6, %xmm3, %xmm3
  8702. vpxor %xmm4, %xmm1, %xmm1
  8703. vmovdqa 16(%rsp), %xmm7
  8704. vmovdqu 96(%rcx), %xmm0
  8705. vpshufd $0x4e, %xmm7, %xmm4
  8706. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  8707. vaesenc 112(%r15), %xmm8, %xmm8
  8708. vpxor %xmm7, %xmm4, %xmm4
  8709. vpshufd $0x4e, %xmm0, %xmm5
  8710. vpxor %xmm0, %xmm5, %xmm5
  8711. vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
  8712. vaesenc 112(%r15), %xmm9, %xmm9
  8713. vaesenc 112(%r15), %xmm10, %xmm10
  8714. vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
  8715. vaesenc 112(%r15), %xmm11, %xmm11
  8716. vaesenc 112(%r15), %xmm12, %xmm12
  8717. vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
  8718. vaesenc 112(%r15), %xmm13, %xmm13
  8719. vaesenc 112(%r15), %xmm14, %xmm14
  8720. vaesenc 112(%r15), %xmm15, %xmm15
  8721. vpxor %xmm7, %xmm1, %xmm1
  8722. vpxor %xmm7, %xmm2, %xmm2
  8723. vpxor %xmm6, %xmm1, %xmm1
  8724. vpxor %xmm6, %xmm3, %xmm3
  8725. vpxor %xmm4, %xmm1, %xmm1
  8726. vmovdqa (%rsp), %xmm7
  8727. vmovdqu 112(%rcx), %xmm0
  8728. vpshufd $0x4e, %xmm7, %xmm4
  8729. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  8730. vaesenc 128(%r15), %xmm8, %xmm8
  8731. vpxor %xmm7, %xmm4, %xmm4
  8732. vpshufd $0x4e, %xmm0, %xmm5
  8733. vpxor %xmm0, %xmm5, %xmm5
  8734. vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
  8735. vaesenc 128(%r15), %xmm9, %xmm9
  8736. vaesenc 128(%r15), %xmm10, %xmm10
  8737. vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
  8738. vaesenc 128(%r15), %xmm11, %xmm11
  8739. vaesenc 128(%r15), %xmm12, %xmm12
  8740. vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
  8741. vaesenc 128(%r15), %xmm13, %xmm13
  8742. vaesenc 128(%r15), %xmm14, %xmm14
  8743. vaesenc 128(%r15), %xmm15, %xmm15
  8744. vpxor %xmm7, %xmm1, %xmm1
  8745. vpxor %xmm7, %xmm2, %xmm2
  8746. vpxor %xmm6, %xmm1, %xmm1
  8747. vpxor %xmm6, %xmm3, %xmm3
  8748. vpxor %xmm4, %xmm1, %xmm1
  8749. vpslldq $8, %xmm1, %xmm5
  8750. vpsrldq $8, %xmm1, %xmm1
  8751. vaesenc 144(%r15), %xmm8, %xmm8
  8752. vpxor %xmm5, %xmm2, %xmm2
  8753. vpxor %xmm1, %xmm3, %xmm3
  8754. vaesenc 144(%r15), %xmm9, %xmm9
  8755. vpslld $31, %xmm2, %xmm7
  8756. vpslld $30, %xmm2, %xmm4
  8757. vpslld $25, %xmm2, %xmm5
  8758. vaesenc 144(%r15), %xmm10, %xmm10
  8759. vpxor %xmm4, %xmm7, %xmm7
  8760. vpxor %xmm5, %xmm7, %xmm7
  8761. vaesenc 144(%r15), %xmm11, %xmm11
  8762. vpsrldq $4, %xmm7, %xmm4
  8763. vpslldq $12, %xmm7, %xmm7
  8764. vaesenc 144(%r15), %xmm12, %xmm12
  8765. vpxor %xmm7, %xmm2, %xmm2
  8766. vpsrld $0x01, %xmm2, %xmm5
  8767. vaesenc 144(%r15), %xmm13, %xmm13
  8768. vpsrld $2, %xmm2, %xmm1
  8769. vpsrld $7, %xmm2, %xmm0
  8770. vaesenc 144(%r15), %xmm14, %xmm14
  8771. vpxor %xmm1, %xmm5, %xmm5
  8772. vpxor %xmm0, %xmm5, %xmm5
  8773. vaesenc 144(%r15), %xmm15, %xmm15
  8774. vpxor %xmm4, %xmm5, %xmm5
  8775. vpxor %xmm5, %xmm2, %xmm2
  8776. vpxor %xmm3, %xmm2, %xmm2
  8777. cmpl $11, %r10d
  8778. vmovdqa 160(%r15), %xmm7
  8779. jl L_AES_GCM_decrypt_avx1_aesenc_128_ghash_avx_done
  8780. vaesenc %xmm7, %xmm8, %xmm8
  8781. vaesenc %xmm7, %xmm9, %xmm9
  8782. vaesenc %xmm7, %xmm10, %xmm10
  8783. vaesenc %xmm7, %xmm11, %xmm11
  8784. vaesenc %xmm7, %xmm12, %xmm12
  8785. vaesenc %xmm7, %xmm13, %xmm13
  8786. vaesenc %xmm7, %xmm14, %xmm14
  8787. vaesenc %xmm7, %xmm15, %xmm15
  8788. vmovdqa 176(%r15), %xmm7
  8789. vaesenc %xmm7, %xmm8, %xmm8
  8790. vaesenc %xmm7, %xmm9, %xmm9
  8791. vaesenc %xmm7, %xmm10, %xmm10
  8792. vaesenc %xmm7, %xmm11, %xmm11
  8793. vaesenc %xmm7, %xmm12, %xmm12
  8794. vaesenc %xmm7, %xmm13, %xmm13
  8795. vaesenc %xmm7, %xmm14, %xmm14
  8796. vaesenc %xmm7, %xmm15, %xmm15
  8797. cmpl $13, %r10d
  8798. vmovdqa 192(%r15), %xmm7
  8799. jl L_AES_GCM_decrypt_avx1_aesenc_128_ghash_avx_done
  8800. vaesenc %xmm7, %xmm8, %xmm8
  8801. vaesenc %xmm7, %xmm9, %xmm9
  8802. vaesenc %xmm7, %xmm10, %xmm10
  8803. vaesenc %xmm7, %xmm11, %xmm11
  8804. vaesenc %xmm7, %xmm12, %xmm12
  8805. vaesenc %xmm7, %xmm13, %xmm13
  8806. vaesenc %xmm7, %xmm14, %xmm14
  8807. vaesenc %xmm7, %xmm15, %xmm15
  8808. vmovdqa 208(%r15), %xmm7
  8809. vaesenc %xmm7, %xmm8, %xmm8
  8810. vaesenc %xmm7, %xmm9, %xmm9
  8811. vaesenc %xmm7, %xmm10, %xmm10
  8812. vaesenc %xmm7, %xmm11, %xmm11
  8813. vaesenc %xmm7, %xmm12, %xmm12
  8814. vaesenc %xmm7, %xmm13, %xmm13
  8815. vaesenc %xmm7, %xmm14, %xmm14
  8816. vaesenc %xmm7, %xmm15, %xmm15
  8817. vmovdqa 224(%r15), %xmm7
  8818. L_AES_GCM_decrypt_avx1_aesenc_128_ghash_avx_done:
  8819. vaesenclast %xmm7, %xmm8, %xmm8
  8820. vaesenclast %xmm7, %xmm9, %xmm9
  8821. vmovdqu (%rcx), %xmm0
  8822. vmovdqu 16(%rcx), %xmm1
  8823. vpxor %xmm0, %xmm8, %xmm8
  8824. vpxor %xmm1, %xmm9, %xmm9
  8825. vmovdqu %xmm8, (%rdx)
  8826. vmovdqu %xmm9, 16(%rdx)
  8827. vaesenclast %xmm7, %xmm10, %xmm10
  8828. vaesenclast %xmm7, %xmm11, %xmm11
  8829. vmovdqu 32(%rcx), %xmm0
  8830. vmovdqu 48(%rcx), %xmm1
  8831. vpxor %xmm0, %xmm10, %xmm10
  8832. vpxor %xmm1, %xmm11, %xmm11
  8833. vmovdqu %xmm10, 32(%rdx)
  8834. vmovdqu %xmm11, 48(%rdx)
  8835. vaesenclast %xmm7, %xmm12, %xmm12
  8836. vaesenclast %xmm7, %xmm13, %xmm13
  8837. vmovdqu 64(%rcx), %xmm0
  8838. vmovdqu 80(%rcx), %xmm1
  8839. vpxor %xmm0, %xmm12, %xmm12
  8840. vpxor %xmm1, %xmm13, %xmm13
  8841. vmovdqu %xmm12, 64(%rdx)
  8842. vmovdqu %xmm13, 80(%rdx)
  8843. vaesenclast %xmm7, %xmm14, %xmm14
  8844. vaesenclast %xmm7, %xmm15, %xmm15
  8845. vmovdqu 96(%rcx), %xmm0
  8846. vmovdqu 112(%rcx), %xmm1
  8847. vpxor %xmm0, %xmm14, %xmm14
  8848. vpxor %xmm1, %xmm15, %xmm15
  8849. vmovdqu %xmm14, 96(%rdx)
  8850. vmovdqu %xmm15, 112(%rdx)
  8851. addl $0x80, %ebx
  8852. cmpl %r13d, %ebx
  8853. jl L_AES_GCM_decrypt_avx1_ghash_128
  8854. vmovdqa %xmm2, %xmm6
  8855. vmovdqa (%rsp), %xmm5
  8856. L_AES_GCM_decrypt_avx1_done_128:
  8857. movl %r9d, %edx
  8858. cmpl %edx, %ebx
  8859. jge L_AES_GCM_decrypt_avx1_done_dec
  8860. movl %r9d, %r13d
  8861. andl $0xfffffff0, %r13d
  8862. cmpl %r13d, %ebx
  8863. jge L_AES_GCM_decrypt_avx1_last_block_done
  8864. L_AES_GCM_decrypt_avx1_last_block_start:
  8865. vmovdqu (%rdi,%rbx,1), %xmm13
  8866. vmovdqa %xmm5, %xmm0
  8867. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm13, %xmm1
  8868. vpxor %xmm6, %xmm1, %xmm1
  8869. vmovdqa 128(%rsp), %xmm9
  8870. vpshufb L_avx1_aes_gcm_bswap_epi64(%rip), %xmm9, %xmm8
  8871. vpaddd L_avx1_aes_gcm_one(%rip), %xmm9, %xmm9
  8872. vmovdqa %xmm9, 128(%rsp)
  8873. vpxor (%r15), %xmm8, %xmm8
  8874. vpclmulqdq $16, %xmm0, %xmm1, %xmm10
  8875. vaesenc 16(%r15), %xmm8, %xmm8
  8876. vaesenc 32(%r15), %xmm8, %xmm8
  8877. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm11
  8878. vaesenc 48(%r15), %xmm8, %xmm8
  8879. vaesenc 64(%r15), %xmm8, %xmm8
  8880. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm12
  8881. vaesenc 80(%r15), %xmm8, %xmm8
  8882. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
  8883. vaesenc 96(%r15), %xmm8, %xmm8
  8884. vpxor %xmm11, %xmm10, %xmm10
  8885. vpslldq $8, %xmm10, %xmm2
  8886. vpsrldq $8, %xmm10, %xmm10
  8887. vaesenc 112(%r15), %xmm8, %xmm8
  8888. vpxor %xmm12, %xmm2, %xmm2
  8889. vpxor %xmm10, %xmm1, %xmm3
  8890. vmovdqa L_avx1_aes_gcm_mod2_128(%rip), %xmm0
  8891. vpclmulqdq $16, %xmm0, %xmm2, %xmm11
  8892. vaesenc 128(%r15), %xmm8, %xmm8
  8893. vpshufd $0x4e, %xmm2, %xmm10
  8894. vpxor %xmm11, %xmm10, %xmm10
  8895. vpclmulqdq $16, %xmm0, %xmm10, %xmm11
  8896. vaesenc 144(%r15), %xmm8, %xmm8
  8897. vpshufd $0x4e, %xmm10, %xmm10
  8898. vpxor %xmm11, %xmm10, %xmm10
  8899. vpxor %xmm3, %xmm10, %xmm6
  8900. cmpl $11, %r10d
  8901. vmovdqa 160(%r15), %xmm9
  8902. jl L_AES_GCM_decrypt_avx1_aesenc_gfmul_last
  8903. vaesenc %xmm9, %xmm8, %xmm8
  8904. vaesenc 176(%r15), %xmm8, %xmm8
  8905. cmpl $13, %r10d
  8906. vmovdqa 192(%r15), %xmm9
  8907. jl L_AES_GCM_decrypt_avx1_aesenc_gfmul_last
  8908. vaesenc %xmm9, %xmm8, %xmm8
  8909. vaesenc 208(%r15), %xmm8, %xmm8
  8910. vmovdqa 224(%r15), %xmm9
  8911. L_AES_GCM_decrypt_avx1_aesenc_gfmul_last:
  8912. vaesenclast %xmm9, %xmm8, %xmm8
  8913. vmovdqa %xmm13, %xmm0
  8914. vpxor %xmm0, %xmm8, %xmm8
  8915. vmovdqu %xmm8, (%rsi,%rbx,1)
  8916. addl $16, %ebx
  8917. cmpl %r13d, %ebx
  8918. jl L_AES_GCM_decrypt_avx1_last_block_start
  8919. L_AES_GCM_decrypt_avx1_last_block_done:
  8920. movl %r9d, %ecx
  8921. movl %ecx, %edx
  8922. andl $15, %ecx
  8923. jz L_AES_GCM_decrypt_avx1_aesenc_last15_dec_avx_done
  8924. vmovdqa 128(%rsp), %xmm4
  8925. vpshufb L_avx1_aes_gcm_bswap_epi64(%rip), %xmm4, %xmm4
  8926. vpxor (%r15), %xmm4, %xmm4
  8927. vaesenc 16(%r15), %xmm4, %xmm4
  8928. vaesenc 32(%r15), %xmm4, %xmm4
  8929. vaesenc 48(%r15), %xmm4, %xmm4
  8930. vaesenc 64(%r15), %xmm4, %xmm4
  8931. vaesenc 80(%r15), %xmm4, %xmm4
  8932. vaesenc 96(%r15), %xmm4, %xmm4
  8933. vaesenc 112(%r15), %xmm4, %xmm4
  8934. vaesenc 128(%r15), %xmm4, %xmm4
  8935. vaesenc 144(%r15), %xmm4, %xmm4
  8936. cmpl $11, %r10d
  8937. vmovdqa 160(%r15), %xmm9
  8938. jl L_AES_GCM_decrypt_avx1_aesenc_last15_dec_avx_aesenc_avx_last
  8939. vaesenc %xmm9, %xmm4, %xmm4
  8940. vaesenc 176(%r15), %xmm4, %xmm4
  8941. cmpl $13, %r10d
  8942. vmovdqa 192(%r15), %xmm9
  8943. jl L_AES_GCM_decrypt_avx1_aesenc_last15_dec_avx_aesenc_avx_last
  8944. vaesenc %xmm9, %xmm4, %xmm4
  8945. vaesenc 208(%r15), %xmm4, %xmm4
  8946. vmovdqa 224(%r15), %xmm9
  8947. L_AES_GCM_decrypt_avx1_aesenc_last15_dec_avx_aesenc_avx_last:
  8948. vaesenclast %xmm9, %xmm4, %xmm4
  8949. subq $32, %rsp
  8950. xorl %ecx, %ecx
  8951. vmovdqu %xmm4, (%rsp)
  8952. vpxor %xmm0, %xmm0, %xmm0
  8953. vmovdqu %xmm0, 16(%rsp)
  8954. L_AES_GCM_decrypt_avx1_aesenc_last15_dec_avx_loop:
  8955. movzbl (%rdi,%rbx,1), %r13d
  8956. movb %r13b, 16(%rsp,%rcx,1)
  8957. xorb (%rsp,%rcx,1), %r13b
  8958. movb %r13b, (%rsi,%rbx,1)
  8959. incl %ebx
  8960. incl %ecx
  8961. cmpl %edx, %ebx
  8962. jl L_AES_GCM_decrypt_avx1_aesenc_last15_dec_avx_loop
  8963. vmovdqu 16(%rsp), %xmm4
  8964. addq $32, %rsp
  8965. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm4, %xmm4
  8966. vpxor %xmm4, %xmm6, %xmm6
  8967. # ghash_gfmul_red_avx
  8968. vpshufd $0x4e, %xmm5, %xmm9
  8969. vpshufd $0x4e, %xmm6, %xmm10
  8970. vpclmulqdq $0x11, %xmm5, %xmm6, %xmm11
  8971. vpclmulqdq $0x00, %xmm5, %xmm6, %xmm8
  8972. vpxor %xmm5, %xmm9, %xmm9
  8973. vpxor %xmm6, %xmm10, %xmm10
  8974. vpclmulqdq $0x00, %xmm10, %xmm9, %xmm9
  8975. vpxor %xmm8, %xmm9, %xmm9
  8976. vpxor %xmm11, %xmm9, %xmm9
  8977. vpslldq $8, %xmm9, %xmm10
  8978. vpsrldq $8, %xmm9, %xmm9
  8979. vpxor %xmm10, %xmm8, %xmm8
  8980. vpxor %xmm9, %xmm11, %xmm6
  8981. vpslld $31, %xmm8, %xmm12
  8982. vpslld $30, %xmm8, %xmm13
  8983. vpslld $25, %xmm8, %xmm14
  8984. vpxor %xmm13, %xmm12, %xmm12
  8985. vpxor %xmm14, %xmm12, %xmm12
  8986. vpsrldq $4, %xmm12, %xmm13
  8987. vpslldq $12, %xmm12, %xmm12
  8988. vpxor %xmm12, %xmm8, %xmm8
  8989. vpsrld $0x01, %xmm8, %xmm14
  8990. vpsrld $2, %xmm8, %xmm10
  8991. vpsrld $7, %xmm8, %xmm9
  8992. vpxor %xmm10, %xmm14, %xmm14
  8993. vpxor %xmm9, %xmm14, %xmm14
  8994. vpxor %xmm13, %xmm14, %xmm14
  8995. vpxor %xmm8, %xmm14, %xmm14
  8996. vpxor %xmm14, %xmm6, %xmm6
  8997. L_AES_GCM_decrypt_avx1_aesenc_last15_dec_avx_done:
  8998. L_AES_GCM_decrypt_avx1_done_dec:
  8999. movl %r9d, %edx
  9000. movl %r11d, %ecx
  9001. shlq $3, %rdx
  9002. shlq $3, %rcx
  9003. vpinsrq $0x00, %rdx, %xmm0, %xmm0
  9004. vpinsrq $0x01, %rcx, %xmm0, %xmm0
  9005. vpxor %xmm0, %xmm6, %xmm6
  9006. # ghash_gfmul_red_avx
  9007. vpshufd $0x4e, %xmm5, %xmm9
  9008. vpshufd $0x4e, %xmm6, %xmm10
  9009. vpclmulqdq $0x11, %xmm5, %xmm6, %xmm11
  9010. vpclmulqdq $0x00, %xmm5, %xmm6, %xmm8
  9011. vpxor %xmm5, %xmm9, %xmm9
  9012. vpxor %xmm6, %xmm10, %xmm10
  9013. vpclmulqdq $0x00, %xmm10, %xmm9, %xmm9
  9014. vpxor %xmm8, %xmm9, %xmm9
  9015. vpxor %xmm11, %xmm9, %xmm9
  9016. vpslldq $8, %xmm9, %xmm10
  9017. vpsrldq $8, %xmm9, %xmm9
  9018. vpxor %xmm10, %xmm8, %xmm8
  9019. vpxor %xmm9, %xmm11, %xmm6
  9020. vpslld $31, %xmm8, %xmm12
  9021. vpslld $30, %xmm8, %xmm13
  9022. vpslld $25, %xmm8, %xmm14
  9023. vpxor %xmm13, %xmm12, %xmm12
  9024. vpxor %xmm14, %xmm12, %xmm12
  9025. vpsrldq $4, %xmm12, %xmm13
  9026. vpslldq $12, %xmm12, %xmm12
  9027. vpxor %xmm12, %xmm8, %xmm8
  9028. vpsrld $0x01, %xmm8, %xmm14
  9029. vpsrld $2, %xmm8, %xmm10
  9030. vpsrld $7, %xmm8, %xmm9
  9031. vpxor %xmm10, %xmm14, %xmm14
  9032. vpxor %xmm9, %xmm14, %xmm14
  9033. vpxor %xmm13, %xmm14, %xmm14
  9034. vpxor %xmm8, %xmm14, %xmm14
  9035. vpxor %xmm14, %xmm6, %xmm6
  9036. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm6, %xmm6
  9037. vpxor 144(%rsp), %xmm6, %xmm0
  9038. cmpl $16, %r14d
  9039. je L_AES_GCM_decrypt_avx1_cmp_tag_16
  9040. subq $16, %rsp
  9041. xorq %rcx, %rcx
  9042. xorq %rbx, %rbx
  9043. vmovdqu %xmm0, (%rsp)
  9044. L_AES_GCM_decrypt_avx1_cmp_tag_loop:
  9045. movzbl (%rsp,%rcx,1), %r13d
  9046. xorb (%r8,%rcx,1), %r13b
  9047. orb %r13b, %bl
  9048. incl %ecx
  9049. cmpl %r14d, %ecx
  9050. jne L_AES_GCM_decrypt_avx1_cmp_tag_loop
  9051. cmpb $0x00, %bl
  9052. sete %bl
  9053. addq $16, %rsp
  9054. xorq %rcx, %rcx
  9055. jmp L_AES_GCM_decrypt_avx1_cmp_tag_done
  9056. L_AES_GCM_decrypt_avx1_cmp_tag_16:
  9057. vmovdqu (%r8), %xmm1
  9058. vpcmpeqb %xmm1, %xmm0, %xmm0
  9059. vpmovmskb %xmm0, %rdx
  9060. # %%edx == 0xFFFF then return 1 else => return 0
  9061. xorl %ebx, %ebx
  9062. cmpl $0xffff, %edx
  9063. sete %bl
  9064. L_AES_GCM_decrypt_avx1_cmp_tag_done:
  9065. movl %ebx, (%rbp)
  9066. vzeroupper
  9067. addq $0xa8, %rsp
  9068. popq %rbp
  9069. popq %r15
  9070. popq %r14
  9071. popq %rbx
  9072. popq %r12
  9073. popq %r13
  9074. repz retq
  9075. #ifndef __APPLE__
  9076. .size AES_GCM_decrypt_avx1,.-AES_GCM_decrypt_avx1
  9077. #endif /* __APPLE__ */
  9078. #ifdef WOLFSSL_AESGCM_STREAM
  9079. #ifndef __APPLE__
  9080. .text
  9081. .globl AES_GCM_init_avx1
  9082. .type AES_GCM_init_avx1,@function
  9083. .align 16
  9084. AES_GCM_init_avx1:
  9085. #else
  9086. .section __TEXT,__text
  9087. .globl _AES_GCM_init_avx1
  9088. .p2align 4
  9089. _AES_GCM_init_avx1:
  9090. #endif /* __APPLE__ */
  9091. pushq %r12
  9092. pushq %r13
  9093. movq %rdx, %r10
  9094. movl %ecx, %r11d
  9095. movq 24(%rsp), %rax
  9096. subq $16, %rsp
  9097. vpxor %xmm4, %xmm4, %xmm4
  9098. movl %r11d, %edx
  9099. cmpl $12, %edx
  9100. jne L_AES_GCM_init_avx1_iv_not_12
  9101. # # Calculate values when IV is 12 bytes
  9102. # Set counter based on IV
  9103. movl $0x1000000, %ecx
  9104. vpinsrq $0x00, (%r10), %xmm4, %xmm4
  9105. vpinsrd $2, 8(%r10), %xmm4, %xmm4
  9106. vpinsrd $3, %ecx, %xmm4, %xmm4
  9107. # H = Encrypt X(=0) and T = Encrypt counter
  9108. vmovdqa (%rdi), %xmm5
  9109. vpxor %xmm5, %xmm4, %xmm1
  9110. vmovdqa 16(%rdi), %xmm7
  9111. vaesenc %xmm7, %xmm5, %xmm5
  9112. vaesenc %xmm7, %xmm1, %xmm1
  9113. vmovdqa 32(%rdi), %xmm7
  9114. vaesenc %xmm7, %xmm5, %xmm5
  9115. vaesenc %xmm7, %xmm1, %xmm1
  9116. vmovdqa 48(%rdi), %xmm7
  9117. vaesenc %xmm7, %xmm5, %xmm5
  9118. vaesenc %xmm7, %xmm1, %xmm1
  9119. vmovdqa 64(%rdi), %xmm7
  9120. vaesenc %xmm7, %xmm5, %xmm5
  9121. vaesenc %xmm7, %xmm1, %xmm1
  9122. vmovdqa 80(%rdi), %xmm7
  9123. vaesenc %xmm7, %xmm5, %xmm5
  9124. vaesenc %xmm7, %xmm1, %xmm1
  9125. vmovdqa 96(%rdi), %xmm7
  9126. vaesenc %xmm7, %xmm5, %xmm5
  9127. vaesenc %xmm7, %xmm1, %xmm1
  9128. vmovdqa 112(%rdi), %xmm7
  9129. vaesenc %xmm7, %xmm5, %xmm5
  9130. vaesenc %xmm7, %xmm1, %xmm1
  9131. vmovdqa 128(%rdi), %xmm7
  9132. vaesenc %xmm7, %xmm5, %xmm5
  9133. vaesenc %xmm7, %xmm1, %xmm1
  9134. vmovdqa 144(%rdi), %xmm7
  9135. vaesenc %xmm7, %xmm5, %xmm5
  9136. vaesenc %xmm7, %xmm1, %xmm1
  9137. cmpl $11, %esi
  9138. vmovdqa 160(%rdi), %xmm7
  9139. jl L_AES_GCM_init_avx1_calc_iv_12_last
  9140. vaesenc %xmm7, %xmm5, %xmm5
  9141. vaesenc %xmm7, %xmm1, %xmm1
  9142. vmovdqa 176(%rdi), %xmm7
  9143. vaesenc %xmm7, %xmm5, %xmm5
  9144. vaesenc %xmm7, %xmm1, %xmm1
  9145. cmpl $13, %esi
  9146. vmovdqa 192(%rdi), %xmm7
  9147. jl L_AES_GCM_init_avx1_calc_iv_12_last
  9148. vaesenc %xmm7, %xmm5, %xmm5
  9149. vaesenc %xmm7, %xmm1, %xmm1
  9150. vmovdqa 208(%rdi), %xmm7
  9151. vaesenc %xmm7, %xmm5, %xmm5
  9152. vaesenc %xmm7, %xmm1, %xmm1
  9153. vmovdqa 224(%rdi), %xmm7
  9154. L_AES_GCM_init_avx1_calc_iv_12_last:
  9155. vaesenclast %xmm7, %xmm5, %xmm5
  9156. vaesenclast %xmm7, %xmm1, %xmm1
  9157. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm5, %xmm5
  9158. vmovdqa %xmm1, %xmm15
  9159. jmp L_AES_GCM_init_avx1_iv_done
  9160. L_AES_GCM_init_avx1_iv_not_12:
  9161. # Calculate values when IV is not 12 bytes
  9162. # H = Encrypt X(=0)
  9163. vmovdqa (%rdi), %xmm5
  9164. vaesenc 16(%rdi), %xmm5, %xmm5
  9165. vaesenc 32(%rdi), %xmm5, %xmm5
  9166. vaesenc 48(%rdi), %xmm5, %xmm5
  9167. vaesenc 64(%rdi), %xmm5, %xmm5
  9168. vaesenc 80(%rdi), %xmm5, %xmm5
  9169. vaesenc 96(%rdi), %xmm5, %xmm5
  9170. vaesenc 112(%rdi), %xmm5, %xmm5
  9171. vaesenc 128(%rdi), %xmm5, %xmm5
  9172. vaesenc 144(%rdi), %xmm5, %xmm5
  9173. cmpl $11, %esi
  9174. vmovdqa 160(%rdi), %xmm9
  9175. jl L_AES_GCM_init_avx1_calc_iv_1_aesenc_avx_last
  9176. vaesenc %xmm9, %xmm5, %xmm5
  9177. vaesenc 176(%rdi), %xmm5, %xmm5
  9178. cmpl $13, %esi
  9179. vmovdqa 192(%rdi), %xmm9
  9180. jl L_AES_GCM_init_avx1_calc_iv_1_aesenc_avx_last
  9181. vaesenc %xmm9, %xmm5, %xmm5
  9182. vaesenc 208(%rdi), %xmm5, %xmm5
  9183. vmovdqa 224(%rdi), %xmm9
  9184. L_AES_GCM_init_avx1_calc_iv_1_aesenc_avx_last:
  9185. vaesenclast %xmm9, %xmm5, %xmm5
  9186. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm5, %xmm5
  9187. # Calc counter
  9188. # Initialization vector
  9189. cmpl $0x00, %edx
  9190. movq $0x00, %rcx
  9191. je L_AES_GCM_init_avx1_calc_iv_done
  9192. cmpl $16, %edx
  9193. jl L_AES_GCM_init_avx1_calc_iv_lt16
  9194. andl $0xfffffff0, %edx
  9195. L_AES_GCM_init_avx1_calc_iv_16_loop:
  9196. vmovdqu (%r10,%rcx,1), %xmm8
  9197. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm8, %xmm8
  9198. vpxor %xmm8, %xmm4, %xmm4
  9199. # ghash_gfmul_avx
  9200. vpshufd $0x4e, %xmm4, %xmm1
  9201. vpshufd $0x4e, %xmm5, %xmm2
  9202. vpclmulqdq $0x11, %xmm4, %xmm5, %xmm3
  9203. vpclmulqdq $0x00, %xmm4, %xmm5, %xmm0
  9204. vpxor %xmm4, %xmm1, %xmm1
  9205. vpxor %xmm5, %xmm2, %xmm2
  9206. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
  9207. vpxor %xmm0, %xmm1, %xmm1
  9208. vpxor %xmm3, %xmm1, %xmm1
  9209. vmovdqa %xmm0, %xmm7
  9210. vmovdqa %xmm3, %xmm4
  9211. vpslldq $8, %xmm1, %xmm2
  9212. vpsrldq $8, %xmm1, %xmm1
  9213. vpxor %xmm2, %xmm7, %xmm7
  9214. vpxor %xmm1, %xmm4, %xmm4
  9215. vpsrld $31, %xmm7, %xmm0
  9216. vpsrld $31, %xmm4, %xmm1
  9217. vpslld $0x01, %xmm7, %xmm7
  9218. vpslld $0x01, %xmm4, %xmm4
  9219. vpsrldq $12, %xmm0, %xmm2
  9220. vpslldq $4, %xmm0, %xmm0
  9221. vpslldq $4, %xmm1, %xmm1
  9222. vpor %xmm2, %xmm4, %xmm4
  9223. vpor %xmm0, %xmm7, %xmm7
  9224. vpor %xmm1, %xmm4, %xmm4
  9225. vpslld $31, %xmm7, %xmm0
  9226. vpslld $30, %xmm7, %xmm1
  9227. vpslld $25, %xmm7, %xmm2
  9228. vpxor %xmm1, %xmm0, %xmm0
  9229. vpxor %xmm2, %xmm0, %xmm0
  9230. vmovdqa %xmm0, %xmm1
  9231. vpsrldq $4, %xmm1, %xmm1
  9232. vpslldq $12, %xmm0, %xmm0
  9233. vpxor %xmm0, %xmm7, %xmm7
  9234. vpsrld $0x01, %xmm7, %xmm2
  9235. vpsrld $2, %xmm7, %xmm3
  9236. vpsrld $7, %xmm7, %xmm0
  9237. vpxor %xmm3, %xmm2, %xmm2
  9238. vpxor %xmm0, %xmm2, %xmm2
  9239. vpxor %xmm1, %xmm2, %xmm2
  9240. vpxor %xmm7, %xmm2, %xmm2
  9241. vpxor %xmm2, %xmm4, %xmm4
  9242. addl $16, %ecx
  9243. cmpl %edx, %ecx
  9244. jl L_AES_GCM_init_avx1_calc_iv_16_loop
  9245. movl %r11d, %edx
  9246. cmpl %edx, %ecx
  9247. je L_AES_GCM_init_avx1_calc_iv_done
  9248. L_AES_GCM_init_avx1_calc_iv_lt16:
  9249. subq $16, %rsp
  9250. vpxor %xmm8, %xmm8, %xmm8
  9251. xorl %r13d, %r13d
  9252. vmovdqu %xmm8, (%rsp)
  9253. L_AES_GCM_init_avx1_calc_iv_loop:
  9254. movzbl (%r10,%rcx,1), %r12d
  9255. movb %r12b, (%rsp,%r13,1)
  9256. incl %ecx
  9257. incl %r13d
  9258. cmpl %edx, %ecx
  9259. jl L_AES_GCM_init_avx1_calc_iv_loop
  9260. vmovdqu (%rsp), %xmm8
  9261. addq $16, %rsp
  9262. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm8, %xmm8
  9263. vpxor %xmm8, %xmm4, %xmm4
  9264. # ghash_gfmul_avx
  9265. vpshufd $0x4e, %xmm4, %xmm1
  9266. vpshufd $0x4e, %xmm5, %xmm2
  9267. vpclmulqdq $0x11, %xmm4, %xmm5, %xmm3
  9268. vpclmulqdq $0x00, %xmm4, %xmm5, %xmm0
  9269. vpxor %xmm4, %xmm1, %xmm1
  9270. vpxor %xmm5, %xmm2, %xmm2
  9271. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
  9272. vpxor %xmm0, %xmm1, %xmm1
  9273. vpxor %xmm3, %xmm1, %xmm1
  9274. vmovdqa %xmm0, %xmm7
  9275. vmovdqa %xmm3, %xmm4
  9276. vpslldq $8, %xmm1, %xmm2
  9277. vpsrldq $8, %xmm1, %xmm1
  9278. vpxor %xmm2, %xmm7, %xmm7
  9279. vpxor %xmm1, %xmm4, %xmm4
  9280. vpsrld $31, %xmm7, %xmm0
  9281. vpsrld $31, %xmm4, %xmm1
  9282. vpslld $0x01, %xmm7, %xmm7
  9283. vpslld $0x01, %xmm4, %xmm4
  9284. vpsrldq $12, %xmm0, %xmm2
  9285. vpslldq $4, %xmm0, %xmm0
  9286. vpslldq $4, %xmm1, %xmm1
  9287. vpor %xmm2, %xmm4, %xmm4
  9288. vpor %xmm0, %xmm7, %xmm7
  9289. vpor %xmm1, %xmm4, %xmm4
  9290. vpslld $31, %xmm7, %xmm0
  9291. vpslld $30, %xmm7, %xmm1
  9292. vpslld $25, %xmm7, %xmm2
  9293. vpxor %xmm1, %xmm0, %xmm0
  9294. vpxor %xmm2, %xmm0, %xmm0
  9295. vmovdqa %xmm0, %xmm1
  9296. vpsrldq $4, %xmm1, %xmm1
  9297. vpslldq $12, %xmm0, %xmm0
  9298. vpxor %xmm0, %xmm7, %xmm7
  9299. vpsrld $0x01, %xmm7, %xmm2
  9300. vpsrld $2, %xmm7, %xmm3
  9301. vpsrld $7, %xmm7, %xmm0
  9302. vpxor %xmm3, %xmm2, %xmm2
  9303. vpxor %xmm0, %xmm2, %xmm2
  9304. vpxor %xmm1, %xmm2, %xmm2
  9305. vpxor %xmm7, %xmm2, %xmm2
  9306. vpxor %xmm2, %xmm4, %xmm4
  9307. L_AES_GCM_init_avx1_calc_iv_done:
  9308. # T = Encrypt counter
  9309. vpxor %xmm0, %xmm0, %xmm0
  9310. shll $3, %edx
  9311. vpinsrq $0x00, %rdx, %xmm0, %xmm0
  9312. vpxor %xmm0, %xmm4, %xmm4
  9313. # ghash_gfmul_avx
  9314. vpshufd $0x4e, %xmm4, %xmm1
  9315. vpshufd $0x4e, %xmm5, %xmm2
  9316. vpclmulqdq $0x11, %xmm4, %xmm5, %xmm3
  9317. vpclmulqdq $0x00, %xmm4, %xmm5, %xmm0
  9318. vpxor %xmm4, %xmm1, %xmm1
  9319. vpxor %xmm5, %xmm2, %xmm2
  9320. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
  9321. vpxor %xmm0, %xmm1, %xmm1
  9322. vpxor %xmm3, %xmm1, %xmm1
  9323. vmovdqa %xmm0, %xmm7
  9324. vmovdqa %xmm3, %xmm4
  9325. vpslldq $8, %xmm1, %xmm2
  9326. vpsrldq $8, %xmm1, %xmm1
  9327. vpxor %xmm2, %xmm7, %xmm7
  9328. vpxor %xmm1, %xmm4, %xmm4
  9329. vpsrld $31, %xmm7, %xmm0
  9330. vpsrld $31, %xmm4, %xmm1
  9331. vpslld $0x01, %xmm7, %xmm7
  9332. vpslld $0x01, %xmm4, %xmm4
  9333. vpsrldq $12, %xmm0, %xmm2
  9334. vpslldq $4, %xmm0, %xmm0
  9335. vpslldq $4, %xmm1, %xmm1
  9336. vpor %xmm2, %xmm4, %xmm4
  9337. vpor %xmm0, %xmm7, %xmm7
  9338. vpor %xmm1, %xmm4, %xmm4
  9339. vpslld $31, %xmm7, %xmm0
  9340. vpslld $30, %xmm7, %xmm1
  9341. vpslld $25, %xmm7, %xmm2
  9342. vpxor %xmm1, %xmm0, %xmm0
  9343. vpxor %xmm2, %xmm0, %xmm0
  9344. vmovdqa %xmm0, %xmm1
  9345. vpsrldq $4, %xmm1, %xmm1
  9346. vpslldq $12, %xmm0, %xmm0
  9347. vpxor %xmm0, %xmm7, %xmm7
  9348. vpsrld $0x01, %xmm7, %xmm2
  9349. vpsrld $2, %xmm7, %xmm3
  9350. vpsrld $7, %xmm7, %xmm0
  9351. vpxor %xmm3, %xmm2, %xmm2
  9352. vpxor %xmm0, %xmm2, %xmm2
  9353. vpxor %xmm1, %xmm2, %xmm2
  9354. vpxor %xmm7, %xmm2, %xmm2
  9355. vpxor %xmm2, %xmm4, %xmm4
  9356. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm4, %xmm4
  9357. # Encrypt counter
  9358. vmovdqa (%rdi), %xmm8
  9359. vpxor %xmm4, %xmm8, %xmm8
  9360. vaesenc 16(%rdi), %xmm8, %xmm8
  9361. vaesenc 32(%rdi), %xmm8, %xmm8
  9362. vaesenc 48(%rdi), %xmm8, %xmm8
  9363. vaesenc 64(%rdi), %xmm8, %xmm8
  9364. vaesenc 80(%rdi), %xmm8, %xmm8
  9365. vaesenc 96(%rdi), %xmm8, %xmm8
  9366. vaesenc 112(%rdi), %xmm8, %xmm8
  9367. vaesenc 128(%rdi), %xmm8, %xmm8
  9368. vaesenc 144(%rdi), %xmm8, %xmm8
  9369. cmpl $11, %esi
  9370. vmovdqa 160(%rdi), %xmm9
  9371. jl L_AES_GCM_init_avx1_calc_iv_2_aesenc_avx_last
  9372. vaesenc %xmm9, %xmm8, %xmm8
  9373. vaesenc 176(%rdi), %xmm8, %xmm8
  9374. cmpl $13, %esi
  9375. vmovdqa 192(%rdi), %xmm9
  9376. jl L_AES_GCM_init_avx1_calc_iv_2_aesenc_avx_last
  9377. vaesenc %xmm9, %xmm8, %xmm8
  9378. vaesenc 208(%rdi), %xmm8, %xmm8
  9379. vmovdqa 224(%rdi), %xmm9
  9380. L_AES_GCM_init_avx1_calc_iv_2_aesenc_avx_last:
  9381. vaesenclast %xmm9, %xmm8, %xmm8
  9382. vmovdqa %xmm8, %xmm15
  9383. L_AES_GCM_init_avx1_iv_done:
  9384. vmovdqa %xmm15, (%rax)
  9385. vpshufb L_avx1_aes_gcm_bswap_epi64(%rip), %xmm4, %xmm4
  9386. vpaddd L_avx1_aes_gcm_one(%rip), %xmm4, %xmm4
  9387. vmovdqa %xmm5, (%r8)
  9388. vmovdqa %xmm4, (%r9)
  9389. vzeroupper
  9390. addq $16, %rsp
  9391. popq %r13
  9392. popq %r12
  9393. repz retq
  9394. #ifndef __APPLE__
  9395. .size AES_GCM_init_avx1,.-AES_GCM_init_avx1
  9396. #endif /* __APPLE__ */
  9397. #ifndef __APPLE__
  9398. .text
  9399. .globl AES_GCM_aad_update_avx1
  9400. .type AES_GCM_aad_update_avx1,@function
  9401. .align 16
  9402. AES_GCM_aad_update_avx1:
  9403. #else
  9404. .section __TEXT,__text
  9405. .globl _AES_GCM_aad_update_avx1
  9406. .p2align 4
  9407. _AES_GCM_aad_update_avx1:
  9408. #endif /* __APPLE__ */
  9409. movq %rcx, %rax
  9410. vmovdqa (%rdx), %xmm5
  9411. vmovdqa (%rax), %xmm6
  9412. xorl %ecx, %ecx
  9413. L_AES_GCM_aad_update_avx1_16_loop:
  9414. vmovdqu (%rdi,%rcx,1), %xmm8
  9415. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm8, %xmm8
  9416. vpxor %xmm8, %xmm5, %xmm5
  9417. # ghash_gfmul_avx
  9418. vpshufd $0x4e, %xmm5, %xmm1
  9419. vpshufd $0x4e, %xmm6, %xmm2
  9420. vpclmulqdq $0x11, %xmm5, %xmm6, %xmm3
  9421. vpclmulqdq $0x00, %xmm5, %xmm6, %xmm0
  9422. vpxor %xmm5, %xmm1, %xmm1
  9423. vpxor %xmm6, %xmm2, %xmm2
  9424. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
  9425. vpxor %xmm0, %xmm1, %xmm1
  9426. vpxor %xmm3, %xmm1, %xmm1
  9427. vmovdqa %xmm0, %xmm4
  9428. vmovdqa %xmm3, %xmm5
  9429. vpslldq $8, %xmm1, %xmm2
  9430. vpsrldq $8, %xmm1, %xmm1
  9431. vpxor %xmm2, %xmm4, %xmm4
  9432. vpxor %xmm1, %xmm5, %xmm5
  9433. vpsrld $31, %xmm4, %xmm0
  9434. vpsrld $31, %xmm5, %xmm1
  9435. vpslld $0x01, %xmm4, %xmm4
  9436. vpslld $0x01, %xmm5, %xmm5
  9437. vpsrldq $12, %xmm0, %xmm2
  9438. vpslldq $4, %xmm0, %xmm0
  9439. vpslldq $4, %xmm1, %xmm1
  9440. vpor %xmm2, %xmm5, %xmm5
  9441. vpor %xmm0, %xmm4, %xmm4
  9442. vpor %xmm1, %xmm5, %xmm5
  9443. vpslld $31, %xmm4, %xmm0
  9444. vpslld $30, %xmm4, %xmm1
  9445. vpslld $25, %xmm4, %xmm2
  9446. vpxor %xmm1, %xmm0, %xmm0
  9447. vpxor %xmm2, %xmm0, %xmm0
  9448. vmovdqa %xmm0, %xmm1
  9449. vpsrldq $4, %xmm1, %xmm1
  9450. vpslldq $12, %xmm0, %xmm0
  9451. vpxor %xmm0, %xmm4, %xmm4
  9452. vpsrld $0x01, %xmm4, %xmm2
  9453. vpsrld $2, %xmm4, %xmm3
  9454. vpsrld $7, %xmm4, %xmm0
  9455. vpxor %xmm3, %xmm2, %xmm2
  9456. vpxor %xmm0, %xmm2, %xmm2
  9457. vpxor %xmm1, %xmm2, %xmm2
  9458. vpxor %xmm4, %xmm2, %xmm2
  9459. vpxor %xmm2, %xmm5, %xmm5
  9460. addl $16, %ecx
  9461. cmpl %esi, %ecx
  9462. jl L_AES_GCM_aad_update_avx1_16_loop
  9463. vmovdqa %xmm5, (%rdx)
  9464. vzeroupper
  9465. repz retq
  9466. #ifndef __APPLE__
  9467. .size AES_GCM_aad_update_avx1,.-AES_GCM_aad_update_avx1
  9468. #endif /* __APPLE__ */
  9469. #ifndef __APPLE__
  9470. .text
  9471. .globl AES_GCM_encrypt_block_avx1
  9472. .type AES_GCM_encrypt_block_avx1,@function
  9473. .align 16
  9474. AES_GCM_encrypt_block_avx1:
  9475. #else
  9476. .section __TEXT,__text
  9477. .globl _AES_GCM_encrypt_block_avx1
  9478. .p2align 4
  9479. _AES_GCM_encrypt_block_avx1:
  9480. #endif /* __APPLE__ */
  9481. movq %rdx, %r10
  9482. movq %rcx, %r11
  9483. vmovdqa (%r8), %xmm9
  9484. vpshufb L_avx1_aes_gcm_bswap_epi64(%rip), %xmm9, %xmm8
  9485. vpaddd L_avx1_aes_gcm_one(%rip), %xmm9, %xmm9
  9486. vmovdqa %xmm9, (%r8)
  9487. vpxor (%rdi), %xmm8, %xmm8
  9488. vaesenc 16(%rdi), %xmm8, %xmm8
  9489. vaesenc 32(%rdi), %xmm8, %xmm8
  9490. vaesenc 48(%rdi), %xmm8, %xmm8
  9491. vaesenc 64(%rdi), %xmm8, %xmm8
  9492. vaesenc 80(%rdi), %xmm8, %xmm8
  9493. vaesenc 96(%rdi), %xmm8, %xmm8
  9494. vaesenc 112(%rdi), %xmm8, %xmm8
  9495. vaesenc 128(%rdi), %xmm8, %xmm8
  9496. vaesenc 144(%rdi), %xmm8, %xmm8
  9497. cmpl $11, %esi
  9498. vmovdqa 160(%rdi), %xmm9
  9499. jl L_AES_GCM_encrypt_block_avx1_aesenc_block_last
  9500. vaesenc %xmm9, %xmm8, %xmm8
  9501. vaesenc 176(%rdi), %xmm8, %xmm8
  9502. cmpl $13, %esi
  9503. vmovdqa 192(%rdi), %xmm9
  9504. jl L_AES_GCM_encrypt_block_avx1_aesenc_block_last
  9505. vaesenc %xmm9, %xmm8, %xmm8
  9506. vaesenc 208(%rdi), %xmm8, %xmm8
  9507. vmovdqa 224(%rdi), %xmm9
  9508. L_AES_GCM_encrypt_block_avx1_aesenc_block_last:
  9509. vaesenclast %xmm9, %xmm8, %xmm8
  9510. vmovdqu (%r11), %xmm9
  9511. vpxor %xmm9, %xmm8, %xmm8
  9512. vmovdqu %xmm8, (%r10)
  9513. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm8, %xmm8
  9514. vzeroupper
  9515. repz retq
  9516. #ifndef __APPLE__
  9517. .size AES_GCM_encrypt_block_avx1,.-AES_GCM_encrypt_block_avx1
  9518. #endif /* __APPLE__ */
  9519. #ifndef __APPLE__
  9520. .text
  9521. .globl AES_GCM_ghash_block_avx1
  9522. .type AES_GCM_ghash_block_avx1,@function
  9523. .align 16
  9524. AES_GCM_ghash_block_avx1:
  9525. #else
  9526. .section __TEXT,__text
  9527. .globl _AES_GCM_ghash_block_avx1
  9528. .p2align 4
  9529. _AES_GCM_ghash_block_avx1:
  9530. #endif /* __APPLE__ */
  9531. vmovdqa (%rsi), %xmm4
  9532. vmovdqa (%rdx), %xmm5
  9533. vmovdqu (%rdi), %xmm8
  9534. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm8, %xmm8
  9535. vpxor %xmm8, %xmm4, %xmm4
  9536. # ghash_gfmul_avx
  9537. vpshufd $0x4e, %xmm4, %xmm1
  9538. vpshufd $0x4e, %xmm5, %xmm2
  9539. vpclmulqdq $0x11, %xmm4, %xmm5, %xmm3
  9540. vpclmulqdq $0x00, %xmm4, %xmm5, %xmm0
  9541. vpxor %xmm4, %xmm1, %xmm1
  9542. vpxor %xmm5, %xmm2, %xmm2
  9543. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
  9544. vpxor %xmm0, %xmm1, %xmm1
  9545. vpxor %xmm3, %xmm1, %xmm1
  9546. vmovdqa %xmm0, %xmm6
  9547. vmovdqa %xmm3, %xmm4
  9548. vpslldq $8, %xmm1, %xmm2
  9549. vpsrldq $8, %xmm1, %xmm1
  9550. vpxor %xmm2, %xmm6, %xmm6
  9551. vpxor %xmm1, %xmm4, %xmm4
  9552. vpsrld $31, %xmm6, %xmm0
  9553. vpsrld $31, %xmm4, %xmm1
  9554. vpslld $0x01, %xmm6, %xmm6
  9555. vpslld $0x01, %xmm4, %xmm4
  9556. vpsrldq $12, %xmm0, %xmm2
  9557. vpslldq $4, %xmm0, %xmm0
  9558. vpslldq $4, %xmm1, %xmm1
  9559. vpor %xmm2, %xmm4, %xmm4
  9560. vpor %xmm0, %xmm6, %xmm6
  9561. vpor %xmm1, %xmm4, %xmm4
  9562. vpslld $31, %xmm6, %xmm0
  9563. vpslld $30, %xmm6, %xmm1
  9564. vpslld $25, %xmm6, %xmm2
  9565. vpxor %xmm1, %xmm0, %xmm0
  9566. vpxor %xmm2, %xmm0, %xmm0
  9567. vmovdqa %xmm0, %xmm1
  9568. vpsrldq $4, %xmm1, %xmm1
  9569. vpslldq $12, %xmm0, %xmm0
  9570. vpxor %xmm0, %xmm6, %xmm6
  9571. vpsrld $0x01, %xmm6, %xmm2
  9572. vpsrld $2, %xmm6, %xmm3
  9573. vpsrld $7, %xmm6, %xmm0
  9574. vpxor %xmm3, %xmm2, %xmm2
  9575. vpxor %xmm0, %xmm2, %xmm2
  9576. vpxor %xmm1, %xmm2, %xmm2
  9577. vpxor %xmm6, %xmm2, %xmm2
  9578. vpxor %xmm2, %xmm4, %xmm4
  9579. vmovdqa %xmm4, (%rsi)
  9580. vzeroupper
  9581. repz retq
  9582. #ifndef __APPLE__
  9583. .size AES_GCM_ghash_block_avx1,.-AES_GCM_ghash_block_avx1
  9584. #endif /* __APPLE__ */
  9585. #ifndef __APPLE__
  9586. .text
  9587. .globl AES_GCM_encrypt_update_avx1
  9588. .type AES_GCM_encrypt_update_avx1,@function
  9589. .align 16
  9590. AES_GCM_encrypt_update_avx1:
  9591. #else
  9592. .section __TEXT,__text
  9593. .globl _AES_GCM_encrypt_update_avx1
  9594. .p2align 4
  9595. _AES_GCM_encrypt_update_avx1:
  9596. #endif /* __APPLE__ */
  9597. pushq %r13
  9598. pushq %r12
  9599. pushq %r14
  9600. movq %rdx, %r10
  9601. movq %rcx, %r11
  9602. movq 32(%rsp), %rax
  9603. movq 40(%rsp), %r12
  9604. subq $0xa0, %rsp
  9605. vmovdqa (%r9), %xmm6
  9606. vmovdqa (%rax), %xmm5
  9607. vpsrlq $63, %xmm5, %xmm9
  9608. vpsllq $0x01, %xmm5, %xmm8
  9609. vpslldq $8, %xmm9, %xmm9
  9610. vpor %xmm9, %xmm8, %xmm8
  9611. vpshufd $0xff, %xmm5, %xmm5
  9612. vpsrad $31, %xmm5, %xmm5
  9613. vpand L_avx1_aes_gcm_mod2_128(%rip), %xmm5, %xmm5
  9614. vpxor %xmm8, %xmm5, %xmm5
  9615. xorl %r14d, %r14d
  9616. cmpl $0x80, %r8d
  9617. movl %r8d, %r13d
  9618. jl L_AES_GCM_encrypt_update_avx1_done_128
  9619. andl $0xffffff80, %r13d
  9620. vmovdqa %xmm6, %xmm2
  9621. # H ^ 1
  9622. vmovdqa %xmm5, (%rsp)
  9623. # H ^ 2
  9624. vpclmulqdq $0x00, %xmm5, %xmm5, %xmm8
  9625. vpclmulqdq $0x11, %xmm5, %xmm5, %xmm0
  9626. vpslld $31, %xmm8, %xmm12
  9627. vpslld $30, %xmm8, %xmm13
  9628. vpslld $25, %xmm8, %xmm14
  9629. vpxor %xmm13, %xmm12, %xmm12
  9630. vpxor %xmm14, %xmm12, %xmm12
  9631. vpsrldq $4, %xmm12, %xmm13
  9632. vpslldq $12, %xmm12, %xmm12
  9633. vpxor %xmm12, %xmm8, %xmm8
  9634. vpsrld $0x01, %xmm8, %xmm14
  9635. vpsrld $2, %xmm8, %xmm10
  9636. vpsrld $7, %xmm8, %xmm9
  9637. vpxor %xmm10, %xmm14, %xmm14
  9638. vpxor %xmm9, %xmm14, %xmm14
  9639. vpxor %xmm13, %xmm14, %xmm14
  9640. vpxor %xmm8, %xmm14, %xmm14
  9641. vpxor %xmm14, %xmm0, %xmm0
  9642. vmovdqa %xmm0, 16(%rsp)
  9643. # H ^ 3
  9644. # ghash_gfmul_red_avx
  9645. vpshufd $0x4e, %xmm5, %xmm9
  9646. vpshufd $0x4e, %xmm0, %xmm10
  9647. vpclmulqdq $0x11, %xmm5, %xmm0, %xmm11
  9648. vpclmulqdq $0x00, %xmm5, %xmm0, %xmm8
  9649. vpxor %xmm5, %xmm9, %xmm9
  9650. vpxor %xmm0, %xmm10, %xmm10
  9651. vpclmulqdq $0x00, %xmm10, %xmm9, %xmm9
  9652. vpxor %xmm8, %xmm9, %xmm9
  9653. vpxor %xmm11, %xmm9, %xmm9
  9654. vpslldq $8, %xmm9, %xmm10
  9655. vpsrldq $8, %xmm9, %xmm9
  9656. vpxor %xmm10, %xmm8, %xmm8
  9657. vpxor %xmm9, %xmm11, %xmm1
  9658. vpslld $31, %xmm8, %xmm12
  9659. vpslld $30, %xmm8, %xmm13
  9660. vpslld $25, %xmm8, %xmm14
  9661. vpxor %xmm13, %xmm12, %xmm12
  9662. vpxor %xmm14, %xmm12, %xmm12
  9663. vpsrldq $4, %xmm12, %xmm13
  9664. vpslldq $12, %xmm12, %xmm12
  9665. vpxor %xmm12, %xmm8, %xmm8
  9666. vpsrld $0x01, %xmm8, %xmm14
  9667. vpsrld $2, %xmm8, %xmm10
  9668. vpsrld $7, %xmm8, %xmm9
  9669. vpxor %xmm10, %xmm14, %xmm14
  9670. vpxor %xmm9, %xmm14, %xmm14
  9671. vpxor %xmm13, %xmm14, %xmm14
  9672. vpxor %xmm8, %xmm14, %xmm14
  9673. vpxor %xmm14, %xmm1, %xmm1
  9674. vmovdqa %xmm1, 32(%rsp)
  9675. # H ^ 4
  9676. vpclmulqdq $0x00, %xmm0, %xmm0, %xmm8
  9677. vpclmulqdq $0x11, %xmm0, %xmm0, %xmm3
  9678. vpslld $31, %xmm8, %xmm12
  9679. vpslld $30, %xmm8, %xmm13
  9680. vpslld $25, %xmm8, %xmm14
  9681. vpxor %xmm13, %xmm12, %xmm12
  9682. vpxor %xmm14, %xmm12, %xmm12
  9683. vpsrldq $4, %xmm12, %xmm13
  9684. vpslldq $12, %xmm12, %xmm12
  9685. vpxor %xmm12, %xmm8, %xmm8
  9686. vpsrld $0x01, %xmm8, %xmm14
  9687. vpsrld $2, %xmm8, %xmm10
  9688. vpsrld $7, %xmm8, %xmm9
  9689. vpxor %xmm10, %xmm14, %xmm14
  9690. vpxor %xmm9, %xmm14, %xmm14
  9691. vpxor %xmm13, %xmm14, %xmm14
  9692. vpxor %xmm8, %xmm14, %xmm14
  9693. vpxor %xmm14, %xmm3, %xmm3
  9694. vmovdqa %xmm3, 48(%rsp)
  9695. # H ^ 5
  9696. # ghash_gfmul_red_avx
  9697. vpshufd $0x4e, %xmm0, %xmm9
  9698. vpshufd $0x4e, %xmm1, %xmm10
  9699. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm11
  9700. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm8
  9701. vpxor %xmm0, %xmm9, %xmm9
  9702. vpxor %xmm1, %xmm10, %xmm10
  9703. vpclmulqdq $0x00, %xmm10, %xmm9, %xmm9
  9704. vpxor %xmm8, %xmm9, %xmm9
  9705. vpxor %xmm11, %xmm9, %xmm9
  9706. vpslldq $8, %xmm9, %xmm10
  9707. vpsrldq $8, %xmm9, %xmm9
  9708. vpxor %xmm10, %xmm8, %xmm8
  9709. vpxor %xmm9, %xmm11, %xmm7
  9710. vpslld $31, %xmm8, %xmm12
  9711. vpslld $30, %xmm8, %xmm13
  9712. vpslld $25, %xmm8, %xmm14
  9713. vpxor %xmm13, %xmm12, %xmm12
  9714. vpxor %xmm14, %xmm12, %xmm12
  9715. vpsrldq $4, %xmm12, %xmm13
  9716. vpslldq $12, %xmm12, %xmm12
  9717. vpxor %xmm12, %xmm8, %xmm8
  9718. vpsrld $0x01, %xmm8, %xmm14
  9719. vpsrld $2, %xmm8, %xmm10
  9720. vpsrld $7, %xmm8, %xmm9
  9721. vpxor %xmm10, %xmm14, %xmm14
  9722. vpxor %xmm9, %xmm14, %xmm14
  9723. vpxor %xmm13, %xmm14, %xmm14
  9724. vpxor %xmm8, %xmm14, %xmm14
  9725. vpxor %xmm14, %xmm7, %xmm7
  9726. vmovdqa %xmm7, 64(%rsp)
  9727. # H ^ 6
  9728. vpclmulqdq $0x00, %xmm1, %xmm1, %xmm8
  9729. vpclmulqdq $0x11, %xmm1, %xmm1, %xmm7
  9730. vpslld $31, %xmm8, %xmm12
  9731. vpslld $30, %xmm8, %xmm13
  9732. vpslld $25, %xmm8, %xmm14
  9733. vpxor %xmm13, %xmm12, %xmm12
  9734. vpxor %xmm14, %xmm12, %xmm12
  9735. vpsrldq $4, %xmm12, %xmm13
  9736. vpslldq $12, %xmm12, %xmm12
  9737. vpxor %xmm12, %xmm8, %xmm8
  9738. vpsrld $0x01, %xmm8, %xmm14
  9739. vpsrld $2, %xmm8, %xmm10
  9740. vpsrld $7, %xmm8, %xmm9
  9741. vpxor %xmm10, %xmm14, %xmm14
  9742. vpxor %xmm9, %xmm14, %xmm14
  9743. vpxor %xmm13, %xmm14, %xmm14
  9744. vpxor %xmm8, %xmm14, %xmm14
  9745. vpxor %xmm14, %xmm7, %xmm7
  9746. vmovdqa %xmm7, 80(%rsp)
  9747. # H ^ 7
  9748. # ghash_gfmul_red_avx
  9749. vpshufd $0x4e, %xmm1, %xmm9
  9750. vpshufd $0x4e, %xmm3, %xmm10
  9751. vpclmulqdq $0x11, %xmm1, %xmm3, %xmm11
  9752. vpclmulqdq $0x00, %xmm1, %xmm3, %xmm8
  9753. vpxor %xmm1, %xmm9, %xmm9
  9754. vpxor %xmm3, %xmm10, %xmm10
  9755. vpclmulqdq $0x00, %xmm10, %xmm9, %xmm9
  9756. vpxor %xmm8, %xmm9, %xmm9
  9757. vpxor %xmm11, %xmm9, %xmm9
  9758. vpslldq $8, %xmm9, %xmm10
  9759. vpsrldq $8, %xmm9, %xmm9
  9760. vpxor %xmm10, %xmm8, %xmm8
  9761. vpxor %xmm9, %xmm11, %xmm7
  9762. vpslld $31, %xmm8, %xmm12
  9763. vpslld $30, %xmm8, %xmm13
  9764. vpslld $25, %xmm8, %xmm14
  9765. vpxor %xmm13, %xmm12, %xmm12
  9766. vpxor %xmm14, %xmm12, %xmm12
  9767. vpsrldq $4, %xmm12, %xmm13
  9768. vpslldq $12, %xmm12, %xmm12
  9769. vpxor %xmm12, %xmm8, %xmm8
  9770. vpsrld $0x01, %xmm8, %xmm14
  9771. vpsrld $2, %xmm8, %xmm10
  9772. vpsrld $7, %xmm8, %xmm9
  9773. vpxor %xmm10, %xmm14, %xmm14
  9774. vpxor %xmm9, %xmm14, %xmm14
  9775. vpxor %xmm13, %xmm14, %xmm14
  9776. vpxor %xmm8, %xmm14, %xmm14
  9777. vpxor %xmm14, %xmm7, %xmm7
  9778. vmovdqa %xmm7, 96(%rsp)
  9779. # H ^ 8
  9780. vpclmulqdq $0x00, %xmm3, %xmm3, %xmm8
  9781. vpclmulqdq $0x11, %xmm3, %xmm3, %xmm7
  9782. vpslld $31, %xmm8, %xmm12
  9783. vpslld $30, %xmm8, %xmm13
  9784. vpslld $25, %xmm8, %xmm14
  9785. vpxor %xmm13, %xmm12, %xmm12
  9786. vpxor %xmm14, %xmm12, %xmm12
  9787. vpsrldq $4, %xmm12, %xmm13
  9788. vpslldq $12, %xmm12, %xmm12
  9789. vpxor %xmm12, %xmm8, %xmm8
  9790. vpsrld $0x01, %xmm8, %xmm14
  9791. vpsrld $2, %xmm8, %xmm10
  9792. vpsrld $7, %xmm8, %xmm9
  9793. vpxor %xmm10, %xmm14, %xmm14
  9794. vpxor %xmm9, %xmm14, %xmm14
  9795. vpxor %xmm13, %xmm14, %xmm14
  9796. vpxor %xmm8, %xmm14, %xmm14
  9797. vpxor %xmm14, %xmm7, %xmm7
  9798. vmovdqa %xmm7, 112(%rsp)
  9799. # First 128 bytes of input
  9800. vmovdqa (%r12), %xmm0
  9801. vmovdqa L_avx1_aes_gcm_bswap_epi64(%rip), %xmm1
  9802. vpshufb %xmm1, %xmm0, %xmm8
  9803. vpaddd L_avx1_aes_gcm_one(%rip), %xmm0, %xmm9
  9804. vpshufb %xmm1, %xmm9, %xmm9
  9805. vpaddd L_avx1_aes_gcm_two(%rip), %xmm0, %xmm10
  9806. vpshufb %xmm1, %xmm10, %xmm10
  9807. vpaddd L_avx1_aes_gcm_three(%rip), %xmm0, %xmm11
  9808. vpshufb %xmm1, %xmm11, %xmm11
  9809. vpaddd L_avx1_aes_gcm_four(%rip), %xmm0, %xmm12
  9810. vpshufb %xmm1, %xmm12, %xmm12
  9811. vpaddd L_avx1_aes_gcm_five(%rip), %xmm0, %xmm13
  9812. vpshufb %xmm1, %xmm13, %xmm13
  9813. vpaddd L_avx1_aes_gcm_six(%rip), %xmm0, %xmm14
  9814. vpshufb %xmm1, %xmm14, %xmm14
  9815. vpaddd L_avx1_aes_gcm_seven(%rip), %xmm0, %xmm15
  9816. vpshufb %xmm1, %xmm15, %xmm15
  9817. vpaddd L_avx1_aes_gcm_eight(%rip), %xmm0, %xmm0
  9818. vmovdqa (%rdi), %xmm7
  9819. vmovdqa %xmm0, (%r12)
  9820. vpxor %xmm7, %xmm8, %xmm8
  9821. vpxor %xmm7, %xmm9, %xmm9
  9822. vpxor %xmm7, %xmm10, %xmm10
  9823. vpxor %xmm7, %xmm11, %xmm11
  9824. vpxor %xmm7, %xmm12, %xmm12
  9825. vpxor %xmm7, %xmm13, %xmm13
  9826. vpxor %xmm7, %xmm14, %xmm14
  9827. vpxor %xmm7, %xmm15, %xmm15
  9828. vmovdqa 16(%rdi), %xmm7
  9829. vaesenc %xmm7, %xmm8, %xmm8
  9830. vaesenc %xmm7, %xmm9, %xmm9
  9831. vaesenc %xmm7, %xmm10, %xmm10
  9832. vaesenc %xmm7, %xmm11, %xmm11
  9833. vaesenc %xmm7, %xmm12, %xmm12
  9834. vaesenc %xmm7, %xmm13, %xmm13
  9835. vaesenc %xmm7, %xmm14, %xmm14
  9836. vaesenc %xmm7, %xmm15, %xmm15
  9837. vmovdqa 32(%rdi), %xmm7
  9838. vaesenc %xmm7, %xmm8, %xmm8
  9839. vaesenc %xmm7, %xmm9, %xmm9
  9840. vaesenc %xmm7, %xmm10, %xmm10
  9841. vaesenc %xmm7, %xmm11, %xmm11
  9842. vaesenc %xmm7, %xmm12, %xmm12
  9843. vaesenc %xmm7, %xmm13, %xmm13
  9844. vaesenc %xmm7, %xmm14, %xmm14
  9845. vaesenc %xmm7, %xmm15, %xmm15
  9846. vmovdqa 48(%rdi), %xmm7
  9847. vaesenc %xmm7, %xmm8, %xmm8
  9848. vaesenc %xmm7, %xmm9, %xmm9
  9849. vaesenc %xmm7, %xmm10, %xmm10
  9850. vaesenc %xmm7, %xmm11, %xmm11
  9851. vaesenc %xmm7, %xmm12, %xmm12
  9852. vaesenc %xmm7, %xmm13, %xmm13
  9853. vaesenc %xmm7, %xmm14, %xmm14
  9854. vaesenc %xmm7, %xmm15, %xmm15
  9855. vmovdqa 64(%rdi), %xmm7
  9856. vaesenc %xmm7, %xmm8, %xmm8
  9857. vaesenc %xmm7, %xmm9, %xmm9
  9858. vaesenc %xmm7, %xmm10, %xmm10
  9859. vaesenc %xmm7, %xmm11, %xmm11
  9860. vaesenc %xmm7, %xmm12, %xmm12
  9861. vaesenc %xmm7, %xmm13, %xmm13
  9862. vaesenc %xmm7, %xmm14, %xmm14
  9863. vaesenc %xmm7, %xmm15, %xmm15
  9864. vmovdqa 80(%rdi), %xmm7
  9865. vaesenc %xmm7, %xmm8, %xmm8
  9866. vaesenc %xmm7, %xmm9, %xmm9
  9867. vaesenc %xmm7, %xmm10, %xmm10
  9868. vaesenc %xmm7, %xmm11, %xmm11
  9869. vaesenc %xmm7, %xmm12, %xmm12
  9870. vaesenc %xmm7, %xmm13, %xmm13
  9871. vaesenc %xmm7, %xmm14, %xmm14
  9872. vaesenc %xmm7, %xmm15, %xmm15
  9873. vmovdqa 96(%rdi), %xmm7
  9874. vaesenc %xmm7, %xmm8, %xmm8
  9875. vaesenc %xmm7, %xmm9, %xmm9
  9876. vaesenc %xmm7, %xmm10, %xmm10
  9877. vaesenc %xmm7, %xmm11, %xmm11
  9878. vaesenc %xmm7, %xmm12, %xmm12
  9879. vaesenc %xmm7, %xmm13, %xmm13
  9880. vaesenc %xmm7, %xmm14, %xmm14
  9881. vaesenc %xmm7, %xmm15, %xmm15
  9882. vmovdqa 112(%rdi), %xmm7
  9883. vaesenc %xmm7, %xmm8, %xmm8
  9884. vaesenc %xmm7, %xmm9, %xmm9
  9885. vaesenc %xmm7, %xmm10, %xmm10
  9886. vaesenc %xmm7, %xmm11, %xmm11
  9887. vaesenc %xmm7, %xmm12, %xmm12
  9888. vaesenc %xmm7, %xmm13, %xmm13
  9889. vaesenc %xmm7, %xmm14, %xmm14
  9890. vaesenc %xmm7, %xmm15, %xmm15
  9891. vmovdqa 128(%rdi), %xmm7
  9892. vaesenc %xmm7, %xmm8, %xmm8
  9893. vaesenc %xmm7, %xmm9, %xmm9
  9894. vaesenc %xmm7, %xmm10, %xmm10
  9895. vaesenc %xmm7, %xmm11, %xmm11
  9896. vaesenc %xmm7, %xmm12, %xmm12
  9897. vaesenc %xmm7, %xmm13, %xmm13
  9898. vaesenc %xmm7, %xmm14, %xmm14
  9899. vaesenc %xmm7, %xmm15, %xmm15
  9900. vmovdqa 144(%rdi), %xmm7
  9901. vaesenc %xmm7, %xmm8, %xmm8
  9902. vaesenc %xmm7, %xmm9, %xmm9
  9903. vaesenc %xmm7, %xmm10, %xmm10
  9904. vaesenc %xmm7, %xmm11, %xmm11
  9905. vaesenc %xmm7, %xmm12, %xmm12
  9906. vaesenc %xmm7, %xmm13, %xmm13
  9907. vaesenc %xmm7, %xmm14, %xmm14
  9908. vaesenc %xmm7, %xmm15, %xmm15
  9909. cmpl $11, %esi
  9910. vmovdqa 160(%rdi), %xmm7
  9911. jl L_AES_GCM_encrypt_update_avx1_aesenc_128_enc_done
  9912. vaesenc %xmm7, %xmm8, %xmm8
  9913. vaesenc %xmm7, %xmm9, %xmm9
  9914. vaesenc %xmm7, %xmm10, %xmm10
  9915. vaesenc %xmm7, %xmm11, %xmm11
  9916. vaesenc %xmm7, %xmm12, %xmm12
  9917. vaesenc %xmm7, %xmm13, %xmm13
  9918. vaesenc %xmm7, %xmm14, %xmm14
  9919. vaesenc %xmm7, %xmm15, %xmm15
  9920. vmovdqa 176(%rdi), %xmm7
  9921. vaesenc %xmm7, %xmm8, %xmm8
  9922. vaesenc %xmm7, %xmm9, %xmm9
  9923. vaesenc %xmm7, %xmm10, %xmm10
  9924. vaesenc %xmm7, %xmm11, %xmm11
  9925. vaesenc %xmm7, %xmm12, %xmm12
  9926. vaesenc %xmm7, %xmm13, %xmm13
  9927. vaesenc %xmm7, %xmm14, %xmm14
  9928. vaesenc %xmm7, %xmm15, %xmm15
  9929. cmpl $13, %esi
  9930. vmovdqa 192(%rdi), %xmm7
  9931. jl L_AES_GCM_encrypt_update_avx1_aesenc_128_enc_done
  9932. vaesenc %xmm7, %xmm8, %xmm8
  9933. vaesenc %xmm7, %xmm9, %xmm9
  9934. vaesenc %xmm7, %xmm10, %xmm10
  9935. vaesenc %xmm7, %xmm11, %xmm11
  9936. vaesenc %xmm7, %xmm12, %xmm12
  9937. vaesenc %xmm7, %xmm13, %xmm13
  9938. vaesenc %xmm7, %xmm14, %xmm14
  9939. vaesenc %xmm7, %xmm15, %xmm15
  9940. vmovdqa 208(%rdi), %xmm7
  9941. vaesenc %xmm7, %xmm8, %xmm8
  9942. vaesenc %xmm7, %xmm9, %xmm9
  9943. vaesenc %xmm7, %xmm10, %xmm10
  9944. vaesenc %xmm7, %xmm11, %xmm11
  9945. vaesenc %xmm7, %xmm12, %xmm12
  9946. vaesenc %xmm7, %xmm13, %xmm13
  9947. vaesenc %xmm7, %xmm14, %xmm14
  9948. vaesenc %xmm7, %xmm15, %xmm15
  9949. vmovdqa 224(%rdi), %xmm7
  9950. L_AES_GCM_encrypt_update_avx1_aesenc_128_enc_done:
  9951. vaesenclast %xmm7, %xmm8, %xmm8
  9952. vaesenclast %xmm7, %xmm9, %xmm9
  9953. vmovdqu (%r11), %xmm0
  9954. vmovdqu 16(%r11), %xmm1
  9955. vpxor %xmm0, %xmm8, %xmm8
  9956. vpxor %xmm1, %xmm9, %xmm9
  9957. vmovdqu %xmm8, (%r10)
  9958. vmovdqu %xmm9, 16(%r10)
  9959. vaesenclast %xmm7, %xmm10, %xmm10
  9960. vaesenclast %xmm7, %xmm11, %xmm11
  9961. vmovdqu 32(%r11), %xmm0
  9962. vmovdqu 48(%r11), %xmm1
  9963. vpxor %xmm0, %xmm10, %xmm10
  9964. vpxor %xmm1, %xmm11, %xmm11
  9965. vmovdqu %xmm10, 32(%r10)
  9966. vmovdqu %xmm11, 48(%r10)
  9967. vaesenclast %xmm7, %xmm12, %xmm12
  9968. vaesenclast %xmm7, %xmm13, %xmm13
  9969. vmovdqu 64(%r11), %xmm0
  9970. vmovdqu 80(%r11), %xmm1
  9971. vpxor %xmm0, %xmm12, %xmm12
  9972. vpxor %xmm1, %xmm13, %xmm13
  9973. vmovdqu %xmm12, 64(%r10)
  9974. vmovdqu %xmm13, 80(%r10)
  9975. vaesenclast %xmm7, %xmm14, %xmm14
  9976. vaesenclast %xmm7, %xmm15, %xmm15
  9977. vmovdqu 96(%r11), %xmm0
  9978. vmovdqu 112(%r11), %xmm1
  9979. vpxor %xmm0, %xmm14, %xmm14
  9980. vpxor %xmm1, %xmm15, %xmm15
  9981. vmovdqu %xmm14, 96(%r10)
  9982. vmovdqu %xmm15, 112(%r10)
  9983. cmpl $0x80, %r13d
  9984. movl $0x80, %r14d
  9985. jle L_AES_GCM_encrypt_update_avx1_end_128
  9986. # More 128 bytes of input
  9987. L_AES_GCM_encrypt_update_avx1_ghash_128:
  9988. leaq (%r11,%r14,1), %rcx
  9989. leaq (%r10,%r14,1), %rdx
  9990. vmovdqa (%r12), %xmm0
  9991. vmovdqa L_avx1_aes_gcm_bswap_epi64(%rip), %xmm1
  9992. vpshufb %xmm1, %xmm0, %xmm8
  9993. vpaddd L_avx1_aes_gcm_one(%rip), %xmm0, %xmm9
  9994. vpshufb %xmm1, %xmm9, %xmm9
  9995. vpaddd L_avx1_aes_gcm_two(%rip), %xmm0, %xmm10
  9996. vpshufb %xmm1, %xmm10, %xmm10
  9997. vpaddd L_avx1_aes_gcm_three(%rip), %xmm0, %xmm11
  9998. vpshufb %xmm1, %xmm11, %xmm11
  9999. vpaddd L_avx1_aes_gcm_four(%rip), %xmm0, %xmm12
  10000. vpshufb %xmm1, %xmm12, %xmm12
  10001. vpaddd L_avx1_aes_gcm_five(%rip), %xmm0, %xmm13
  10002. vpshufb %xmm1, %xmm13, %xmm13
  10003. vpaddd L_avx1_aes_gcm_six(%rip), %xmm0, %xmm14
  10004. vpshufb %xmm1, %xmm14, %xmm14
  10005. vpaddd L_avx1_aes_gcm_seven(%rip), %xmm0, %xmm15
  10006. vpshufb %xmm1, %xmm15, %xmm15
  10007. vpaddd L_avx1_aes_gcm_eight(%rip), %xmm0, %xmm0
  10008. vmovdqa (%rdi), %xmm7
  10009. vmovdqa %xmm0, (%r12)
  10010. vpxor %xmm7, %xmm8, %xmm8
  10011. vpxor %xmm7, %xmm9, %xmm9
  10012. vpxor %xmm7, %xmm10, %xmm10
  10013. vpxor %xmm7, %xmm11, %xmm11
  10014. vpxor %xmm7, %xmm12, %xmm12
  10015. vpxor %xmm7, %xmm13, %xmm13
  10016. vpxor %xmm7, %xmm14, %xmm14
  10017. vpxor %xmm7, %xmm15, %xmm15
  10018. vmovdqa 112(%rsp), %xmm7
  10019. vmovdqu -128(%rdx), %xmm0
  10020. vaesenc 16(%rdi), %xmm8, %xmm8
  10021. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  10022. vpxor %xmm2, %xmm0, %xmm0
  10023. vpshufd $0x4e, %xmm7, %xmm1
  10024. vpshufd $0x4e, %xmm0, %xmm5
  10025. vpxor %xmm7, %xmm1, %xmm1
  10026. vpxor %xmm0, %xmm5, %xmm5
  10027. vpclmulqdq $0x11, %xmm7, %xmm0, %xmm3
  10028. vaesenc 16(%rdi), %xmm9, %xmm9
  10029. vaesenc 16(%rdi), %xmm10, %xmm10
  10030. vpclmulqdq $0x00, %xmm7, %xmm0, %xmm2
  10031. vaesenc 16(%rdi), %xmm11, %xmm11
  10032. vaesenc 16(%rdi), %xmm12, %xmm12
  10033. vpclmulqdq $0x00, %xmm5, %xmm1, %xmm1
  10034. vaesenc 16(%rdi), %xmm13, %xmm13
  10035. vaesenc 16(%rdi), %xmm14, %xmm14
  10036. vaesenc 16(%rdi), %xmm15, %xmm15
  10037. vpxor %xmm2, %xmm1, %xmm1
  10038. vpxor %xmm3, %xmm1, %xmm1
  10039. vmovdqa 96(%rsp), %xmm7
  10040. vmovdqu -112(%rdx), %xmm0
  10041. vpshufd $0x4e, %xmm7, %xmm4
  10042. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  10043. vaesenc 32(%rdi), %xmm8, %xmm8
  10044. vpxor %xmm7, %xmm4, %xmm4
  10045. vpshufd $0x4e, %xmm0, %xmm5
  10046. vpxor %xmm0, %xmm5, %xmm5
  10047. vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
  10048. vaesenc 32(%rdi), %xmm9, %xmm9
  10049. vaesenc 32(%rdi), %xmm10, %xmm10
  10050. vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
  10051. vaesenc 32(%rdi), %xmm11, %xmm11
  10052. vaesenc 32(%rdi), %xmm12, %xmm12
  10053. vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
  10054. vaesenc 32(%rdi), %xmm13, %xmm13
  10055. vaesenc 32(%rdi), %xmm14, %xmm14
  10056. vaesenc 32(%rdi), %xmm15, %xmm15
  10057. vpxor %xmm7, %xmm1, %xmm1
  10058. vpxor %xmm7, %xmm2, %xmm2
  10059. vpxor %xmm6, %xmm1, %xmm1
  10060. vpxor %xmm6, %xmm3, %xmm3
  10061. vpxor %xmm4, %xmm1, %xmm1
  10062. vmovdqa 80(%rsp), %xmm7
  10063. vmovdqu -96(%rdx), %xmm0
  10064. vpshufd $0x4e, %xmm7, %xmm4
  10065. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  10066. vaesenc 48(%rdi), %xmm8, %xmm8
  10067. vpxor %xmm7, %xmm4, %xmm4
  10068. vpshufd $0x4e, %xmm0, %xmm5
  10069. vpxor %xmm0, %xmm5, %xmm5
  10070. vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
  10071. vaesenc 48(%rdi), %xmm9, %xmm9
  10072. vaesenc 48(%rdi), %xmm10, %xmm10
  10073. vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
  10074. vaesenc 48(%rdi), %xmm11, %xmm11
  10075. vaesenc 48(%rdi), %xmm12, %xmm12
  10076. vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
  10077. vaesenc 48(%rdi), %xmm13, %xmm13
  10078. vaesenc 48(%rdi), %xmm14, %xmm14
  10079. vaesenc 48(%rdi), %xmm15, %xmm15
  10080. vpxor %xmm7, %xmm1, %xmm1
  10081. vpxor %xmm7, %xmm2, %xmm2
  10082. vpxor %xmm6, %xmm1, %xmm1
  10083. vpxor %xmm6, %xmm3, %xmm3
  10084. vpxor %xmm4, %xmm1, %xmm1
  10085. vmovdqa 64(%rsp), %xmm7
  10086. vmovdqu -80(%rdx), %xmm0
  10087. vpshufd $0x4e, %xmm7, %xmm4
  10088. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  10089. vaesenc 64(%rdi), %xmm8, %xmm8
  10090. vpxor %xmm7, %xmm4, %xmm4
  10091. vpshufd $0x4e, %xmm0, %xmm5
  10092. vpxor %xmm0, %xmm5, %xmm5
  10093. vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
  10094. vaesenc 64(%rdi), %xmm9, %xmm9
  10095. vaesenc 64(%rdi), %xmm10, %xmm10
  10096. vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
  10097. vaesenc 64(%rdi), %xmm11, %xmm11
  10098. vaesenc 64(%rdi), %xmm12, %xmm12
  10099. vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
  10100. vaesenc 64(%rdi), %xmm13, %xmm13
  10101. vaesenc 64(%rdi), %xmm14, %xmm14
  10102. vaesenc 64(%rdi), %xmm15, %xmm15
  10103. vpxor %xmm7, %xmm1, %xmm1
  10104. vpxor %xmm7, %xmm2, %xmm2
  10105. vpxor %xmm6, %xmm1, %xmm1
  10106. vpxor %xmm6, %xmm3, %xmm3
  10107. vpxor %xmm4, %xmm1, %xmm1
  10108. vmovdqa 48(%rsp), %xmm7
  10109. vmovdqu -64(%rdx), %xmm0
  10110. vpshufd $0x4e, %xmm7, %xmm4
  10111. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  10112. vaesenc 80(%rdi), %xmm8, %xmm8
  10113. vpxor %xmm7, %xmm4, %xmm4
  10114. vpshufd $0x4e, %xmm0, %xmm5
  10115. vpxor %xmm0, %xmm5, %xmm5
  10116. vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
  10117. vaesenc 80(%rdi), %xmm9, %xmm9
  10118. vaesenc 80(%rdi), %xmm10, %xmm10
  10119. vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
  10120. vaesenc 80(%rdi), %xmm11, %xmm11
  10121. vaesenc 80(%rdi), %xmm12, %xmm12
  10122. vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
  10123. vaesenc 80(%rdi), %xmm13, %xmm13
  10124. vaesenc 80(%rdi), %xmm14, %xmm14
  10125. vaesenc 80(%rdi), %xmm15, %xmm15
  10126. vpxor %xmm7, %xmm1, %xmm1
  10127. vpxor %xmm7, %xmm2, %xmm2
  10128. vpxor %xmm6, %xmm1, %xmm1
  10129. vpxor %xmm6, %xmm3, %xmm3
  10130. vpxor %xmm4, %xmm1, %xmm1
  10131. vmovdqa 32(%rsp), %xmm7
  10132. vmovdqu -48(%rdx), %xmm0
  10133. vpshufd $0x4e, %xmm7, %xmm4
  10134. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  10135. vaesenc 96(%rdi), %xmm8, %xmm8
  10136. vpxor %xmm7, %xmm4, %xmm4
  10137. vpshufd $0x4e, %xmm0, %xmm5
  10138. vpxor %xmm0, %xmm5, %xmm5
  10139. vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
  10140. vaesenc 96(%rdi), %xmm9, %xmm9
  10141. vaesenc 96(%rdi), %xmm10, %xmm10
  10142. vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
  10143. vaesenc 96(%rdi), %xmm11, %xmm11
  10144. vaesenc 96(%rdi), %xmm12, %xmm12
  10145. vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
  10146. vaesenc 96(%rdi), %xmm13, %xmm13
  10147. vaesenc 96(%rdi), %xmm14, %xmm14
  10148. vaesenc 96(%rdi), %xmm15, %xmm15
  10149. vpxor %xmm7, %xmm1, %xmm1
  10150. vpxor %xmm7, %xmm2, %xmm2
  10151. vpxor %xmm6, %xmm1, %xmm1
  10152. vpxor %xmm6, %xmm3, %xmm3
  10153. vpxor %xmm4, %xmm1, %xmm1
  10154. vmovdqa 16(%rsp), %xmm7
  10155. vmovdqu -32(%rdx), %xmm0
  10156. vpshufd $0x4e, %xmm7, %xmm4
  10157. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  10158. vaesenc 112(%rdi), %xmm8, %xmm8
  10159. vpxor %xmm7, %xmm4, %xmm4
  10160. vpshufd $0x4e, %xmm0, %xmm5
  10161. vpxor %xmm0, %xmm5, %xmm5
  10162. vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
  10163. vaesenc 112(%rdi), %xmm9, %xmm9
  10164. vaesenc 112(%rdi), %xmm10, %xmm10
  10165. vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
  10166. vaesenc 112(%rdi), %xmm11, %xmm11
  10167. vaesenc 112(%rdi), %xmm12, %xmm12
  10168. vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
  10169. vaesenc 112(%rdi), %xmm13, %xmm13
  10170. vaesenc 112(%rdi), %xmm14, %xmm14
  10171. vaesenc 112(%rdi), %xmm15, %xmm15
  10172. vpxor %xmm7, %xmm1, %xmm1
  10173. vpxor %xmm7, %xmm2, %xmm2
  10174. vpxor %xmm6, %xmm1, %xmm1
  10175. vpxor %xmm6, %xmm3, %xmm3
  10176. vpxor %xmm4, %xmm1, %xmm1
  10177. vmovdqa (%rsp), %xmm7
  10178. vmovdqu -16(%rdx), %xmm0
  10179. vpshufd $0x4e, %xmm7, %xmm4
  10180. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  10181. vaesenc 128(%rdi), %xmm8, %xmm8
  10182. vpxor %xmm7, %xmm4, %xmm4
  10183. vpshufd $0x4e, %xmm0, %xmm5
  10184. vpxor %xmm0, %xmm5, %xmm5
  10185. vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
  10186. vaesenc 128(%rdi), %xmm9, %xmm9
  10187. vaesenc 128(%rdi), %xmm10, %xmm10
  10188. vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
  10189. vaesenc 128(%rdi), %xmm11, %xmm11
  10190. vaesenc 128(%rdi), %xmm12, %xmm12
  10191. vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
  10192. vaesenc 128(%rdi), %xmm13, %xmm13
  10193. vaesenc 128(%rdi), %xmm14, %xmm14
  10194. vaesenc 128(%rdi), %xmm15, %xmm15
  10195. vpxor %xmm7, %xmm1, %xmm1
  10196. vpxor %xmm7, %xmm2, %xmm2
  10197. vpxor %xmm6, %xmm1, %xmm1
  10198. vpxor %xmm6, %xmm3, %xmm3
  10199. vpxor %xmm4, %xmm1, %xmm1
  10200. vpslldq $8, %xmm1, %xmm5
  10201. vpsrldq $8, %xmm1, %xmm1
  10202. vaesenc 144(%rdi), %xmm8, %xmm8
  10203. vpxor %xmm5, %xmm2, %xmm2
  10204. vpxor %xmm1, %xmm3, %xmm3
  10205. vaesenc 144(%rdi), %xmm9, %xmm9
  10206. vpslld $31, %xmm2, %xmm7
  10207. vpslld $30, %xmm2, %xmm4
  10208. vpslld $25, %xmm2, %xmm5
  10209. vaesenc 144(%rdi), %xmm10, %xmm10
  10210. vpxor %xmm4, %xmm7, %xmm7
  10211. vpxor %xmm5, %xmm7, %xmm7
  10212. vaesenc 144(%rdi), %xmm11, %xmm11
  10213. vpsrldq $4, %xmm7, %xmm4
  10214. vpslldq $12, %xmm7, %xmm7
  10215. vaesenc 144(%rdi), %xmm12, %xmm12
  10216. vpxor %xmm7, %xmm2, %xmm2
  10217. vpsrld $0x01, %xmm2, %xmm5
  10218. vaesenc 144(%rdi), %xmm13, %xmm13
  10219. vpsrld $2, %xmm2, %xmm1
  10220. vpsrld $7, %xmm2, %xmm0
  10221. vaesenc 144(%rdi), %xmm14, %xmm14
  10222. vpxor %xmm1, %xmm5, %xmm5
  10223. vpxor %xmm0, %xmm5, %xmm5
  10224. vaesenc 144(%rdi), %xmm15, %xmm15
  10225. vpxor %xmm4, %xmm5, %xmm5
  10226. vpxor %xmm5, %xmm2, %xmm2
  10227. vpxor %xmm3, %xmm2, %xmm2
  10228. cmpl $11, %esi
  10229. vmovdqa 160(%rdi), %xmm7
  10230. jl L_AES_GCM_encrypt_update_avx1_aesenc_128_ghash_avx_done
  10231. vaesenc %xmm7, %xmm8, %xmm8
  10232. vaesenc %xmm7, %xmm9, %xmm9
  10233. vaesenc %xmm7, %xmm10, %xmm10
  10234. vaesenc %xmm7, %xmm11, %xmm11
  10235. vaesenc %xmm7, %xmm12, %xmm12
  10236. vaesenc %xmm7, %xmm13, %xmm13
  10237. vaesenc %xmm7, %xmm14, %xmm14
  10238. vaesenc %xmm7, %xmm15, %xmm15
  10239. vmovdqa 176(%rdi), %xmm7
  10240. vaesenc %xmm7, %xmm8, %xmm8
  10241. vaesenc %xmm7, %xmm9, %xmm9
  10242. vaesenc %xmm7, %xmm10, %xmm10
  10243. vaesenc %xmm7, %xmm11, %xmm11
  10244. vaesenc %xmm7, %xmm12, %xmm12
  10245. vaesenc %xmm7, %xmm13, %xmm13
  10246. vaesenc %xmm7, %xmm14, %xmm14
  10247. vaesenc %xmm7, %xmm15, %xmm15
  10248. cmpl $13, %esi
  10249. vmovdqa 192(%rdi), %xmm7
  10250. jl L_AES_GCM_encrypt_update_avx1_aesenc_128_ghash_avx_done
  10251. vaesenc %xmm7, %xmm8, %xmm8
  10252. vaesenc %xmm7, %xmm9, %xmm9
  10253. vaesenc %xmm7, %xmm10, %xmm10
  10254. vaesenc %xmm7, %xmm11, %xmm11
  10255. vaesenc %xmm7, %xmm12, %xmm12
  10256. vaesenc %xmm7, %xmm13, %xmm13
  10257. vaesenc %xmm7, %xmm14, %xmm14
  10258. vaesenc %xmm7, %xmm15, %xmm15
  10259. vmovdqa 208(%rdi), %xmm7
  10260. vaesenc %xmm7, %xmm8, %xmm8
  10261. vaesenc %xmm7, %xmm9, %xmm9
  10262. vaesenc %xmm7, %xmm10, %xmm10
  10263. vaesenc %xmm7, %xmm11, %xmm11
  10264. vaesenc %xmm7, %xmm12, %xmm12
  10265. vaesenc %xmm7, %xmm13, %xmm13
  10266. vaesenc %xmm7, %xmm14, %xmm14
  10267. vaesenc %xmm7, %xmm15, %xmm15
  10268. vmovdqa 224(%rdi), %xmm7
  10269. L_AES_GCM_encrypt_update_avx1_aesenc_128_ghash_avx_done:
  10270. vaesenclast %xmm7, %xmm8, %xmm8
  10271. vaesenclast %xmm7, %xmm9, %xmm9
  10272. vmovdqu (%rcx), %xmm0
  10273. vmovdqu 16(%rcx), %xmm1
  10274. vpxor %xmm0, %xmm8, %xmm8
  10275. vpxor %xmm1, %xmm9, %xmm9
  10276. vmovdqu %xmm8, (%rdx)
  10277. vmovdqu %xmm9, 16(%rdx)
  10278. vaesenclast %xmm7, %xmm10, %xmm10
  10279. vaesenclast %xmm7, %xmm11, %xmm11
  10280. vmovdqu 32(%rcx), %xmm0
  10281. vmovdqu 48(%rcx), %xmm1
  10282. vpxor %xmm0, %xmm10, %xmm10
  10283. vpxor %xmm1, %xmm11, %xmm11
  10284. vmovdqu %xmm10, 32(%rdx)
  10285. vmovdqu %xmm11, 48(%rdx)
  10286. vaesenclast %xmm7, %xmm12, %xmm12
  10287. vaesenclast %xmm7, %xmm13, %xmm13
  10288. vmovdqu 64(%rcx), %xmm0
  10289. vmovdqu 80(%rcx), %xmm1
  10290. vpxor %xmm0, %xmm12, %xmm12
  10291. vpxor %xmm1, %xmm13, %xmm13
  10292. vmovdqu %xmm12, 64(%rdx)
  10293. vmovdqu %xmm13, 80(%rdx)
  10294. vaesenclast %xmm7, %xmm14, %xmm14
  10295. vaesenclast %xmm7, %xmm15, %xmm15
  10296. vmovdqu 96(%rcx), %xmm0
  10297. vmovdqu 112(%rcx), %xmm1
  10298. vpxor %xmm0, %xmm14, %xmm14
  10299. vpxor %xmm1, %xmm15, %xmm15
  10300. vmovdqu %xmm14, 96(%rdx)
  10301. vmovdqu %xmm15, 112(%rdx)
  10302. addl $0x80, %r14d
  10303. cmpl %r13d, %r14d
  10304. jl L_AES_GCM_encrypt_update_avx1_ghash_128
  10305. L_AES_GCM_encrypt_update_avx1_end_128:
  10306. vmovdqa L_avx1_aes_gcm_bswap_mask(%rip), %xmm4
  10307. vpshufb %xmm4, %xmm8, %xmm8
  10308. vpshufb %xmm4, %xmm9, %xmm9
  10309. vpshufb %xmm4, %xmm10, %xmm10
  10310. vpshufb %xmm4, %xmm11, %xmm11
  10311. vpxor %xmm2, %xmm8, %xmm8
  10312. vpshufb %xmm4, %xmm12, %xmm12
  10313. vpshufb %xmm4, %xmm13, %xmm13
  10314. vpshufb %xmm4, %xmm14, %xmm14
  10315. vpshufb %xmm4, %xmm15, %xmm15
  10316. vmovdqa (%rsp), %xmm7
  10317. vmovdqa 16(%rsp), %xmm5
  10318. # ghash_gfmul_avx
  10319. vpshufd $0x4e, %xmm15, %xmm1
  10320. vpshufd $0x4e, %xmm7, %xmm2
  10321. vpclmulqdq $0x11, %xmm15, %xmm7, %xmm3
  10322. vpclmulqdq $0x00, %xmm15, %xmm7, %xmm0
  10323. vpxor %xmm15, %xmm1, %xmm1
  10324. vpxor %xmm7, %xmm2, %xmm2
  10325. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
  10326. vpxor %xmm0, %xmm1, %xmm1
  10327. vpxor %xmm3, %xmm1, %xmm1
  10328. vmovdqa %xmm0, %xmm4
  10329. vmovdqa %xmm3, %xmm6
  10330. vpslldq $8, %xmm1, %xmm2
  10331. vpsrldq $8, %xmm1, %xmm1
  10332. vpxor %xmm2, %xmm4, %xmm4
  10333. vpxor %xmm1, %xmm6, %xmm6
  10334. # ghash_gfmul_xor_avx
  10335. vpshufd $0x4e, %xmm14, %xmm1
  10336. vpshufd $0x4e, %xmm5, %xmm2
  10337. vpclmulqdq $0x11, %xmm14, %xmm5, %xmm3
  10338. vpclmulqdq $0x00, %xmm14, %xmm5, %xmm0
  10339. vpxor %xmm14, %xmm1, %xmm1
  10340. vpxor %xmm5, %xmm2, %xmm2
  10341. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
  10342. vpxor %xmm0, %xmm1, %xmm1
  10343. vpxor %xmm3, %xmm1, %xmm1
  10344. vpxor %xmm0, %xmm4, %xmm4
  10345. vpxor %xmm3, %xmm6, %xmm6
  10346. vpslldq $8, %xmm1, %xmm2
  10347. vpsrldq $8, %xmm1, %xmm1
  10348. vpxor %xmm2, %xmm4, %xmm4
  10349. vpxor %xmm1, %xmm6, %xmm6
  10350. vmovdqa 32(%rsp), %xmm7
  10351. vmovdqa 48(%rsp), %xmm5
  10352. # ghash_gfmul_xor_avx
  10353. vpshufd $0x4e, %xmm13, %xmm1
  10354. vpshufd $0x4e, %xmm7, %xmm2
  10355. vpclmulqdq $0x11, %xmm13, %xmm7, %xmm3
  10356. vpclmulqdq $0x00, %xmm13, %xmm7, %xmm0
  10357. vpxor %xmm13, %xmm1, %xmm1
  10358. vpxor %xmm7, %xmm2, %xmm2
  10359. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
  10360. vpxor %xmm0, %xmm1, %xmm1
  10361. vpxor %xmm3, %xmm1, %xmm1
  10362. vpxor %xmm0, %xmm4, %xmm4
  10363. vpxor %xmm3, %xmm6, %xmm6
  10364. vpslldq $8, %xmm1, %xmm2
  10365. vpsrldq $8, %xmm1, %xmm1
  10366. vpxor %xmm2, %xmm4, %xmm4
  10367. vpxor %xmm1, %xmm6, %xmm6
  10368. # ghash_gfmul_xor_avx
  10369. vpshufd $0x4e, %xmm12, %xmm1
  10370. vpshufd $0x4e, %xmm5, %xmm2
  10371. vpclmulqdq $0x11, %xmm12, %xmm5, %xmm3
  10372. vpclmulqdq $0x00, %xmm12, %xmm5, %xmm0
  10373. vpxor %xmm12, %xmm1, %xmm1
  10374. vpxor %xmm5, %xmm2, %xmm2
  10375. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
  10376. vpxor %xmm0, %xmm1, %xmm1
  10377. vpxor %xmm3, %xmm1, %xmm1
  10378. vpxor %xmm0, %xmm4, %xmm4
  10379. vpxor %xmm3, %xmm6, %xmm6
  10380. vpslldq $8, %xmm1, %xmm2
  10381. vpsrldq $8, %xmm1, %xmm1
  10382. vpxor %xmm2, %xmm4, %xmm4
  10383. vpxor %xmm1, %xmm6, %xmm6
  10384. vmovdqa 64(%rsp), %xmm7
  10385. vmovdqa 80(%rsp), %xmm5
  10386. # ghash_gfmul_xor_avx
  10387. vpshufd $0x4e, %xmm11, %xmm1
  10388. vpshufd $0x4e, %xmm7, %xmm2
  10389. vpclmulqdq $0x11, %xmm11, %xmm7, %xmm3
  10390. vpclmulqdq $0x00, %xmm11, %xmm7, %xmm0
  10391. vpxor %xmm11, %xmm1, %xmm1
  10392. vpxor %xmm7, %xmm2, %xmm2
  10393. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
  10394. vpxor %xmm0, %xmm1, %xmm1
  10395. vpxor %xmm3, %xmm1, %xmm1
  10396. vpxor %xmm0, %xmm4, %xmm4
  10397. vpxor %xmm3, %xmm6, %xmm6
  10398. vpslldq $8, %xmm1, %xmm2
  10399. vpsrldq $8, %xmm1, %xmm1
  10400. vpxor %xmm2, %xmm4, %xmm4
  10401. vpxor %xmm1, %xmm6, %xmm6
  10402. # ghash_gfmul_xor_avx
  10403. vpshufd $0x4e, %xmm10, %xmm1
  10404. vpshufd $0x4e, %xmm5, %xmm2
  10405. vpclmulqdq $0x11, %xmm10, %xmm5, %xmm3
  10406. vpclmulqdq $0x00, %xmm10, %xmm5, %xmm0
  10407. vpxor %xmm10, %xmm1, %xmm1
  10408. vpxor %xmm5, %xmm2, %xmm2
  10409. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
  10410. vpxor %xmm0, %xmm1, %xmm1
  10411. vpxor %xmm3, %xmm1, %xmm1
  10412. vpxor %xmm0, %xmm4, %xmm4
  10413. vpxor %xmm3, %xmm6, %xmm6
  10414. vpslldq $8, %xmm1, %xmm2
  10415. vpsrldq $8, %xmm1, %xmm1
  10416. vpxor %xmm2, %xmm4, %xmm4
  10417. vpxor %xmm1, %xmm6, %xmm6
  10418. vmovdqa 96(%rsp), %xmm7
  10419. vmovdqa 112(%rsp), %xmm5
  10420. # ghash_gfmul_xor_avx
  10421. vpshufd $0x4e, %xmm9, %xmm1
  10422. vpshufd $0x4e, %xmm7, %xmm2
  10423. vpclmulqdq $0x11, %xmm9, %xmm7, %xmm3
  10424. vpclmulqdq $0x00, %xmm9, %xmm7, %xmm0
  10425. vpxor %xmm9, %xmm1, %xmm1
  10426. vpxor %xmm7, %xmm2, %xmm2
  10427. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
  10428. vpxor %xmm0, %xmm1, %xmm1
  10429. vpxor %xmm3, %xmm1, %xmm1
  10430. vpxor %xmm0, %xmm4, %xmm4
  10431. vpxor %xmm3, %xmm6, %xmm6
  10432. vpslldq $8, %xmm1, %xmm2
  10433. vpsrldq $8, %xmm1, %xmm1
  10434. vpxor %xmm2, %xmm4, %xmm4
  10435. vpxor %xmm1, %xmm6, %xmm6
  10436. # ghash_gfmul_xor_avx
  10437. vpshufd $0x4e, %xmm8, %xmm1
  10438. vpshufd $0x4e, %xmm5, %xmm2
  10439. vpclmulqdq $0x11, %xmm8, %xmm5, %xmm3
  10440. vpclmulqdq $0x00, %xmm8, %xmm5, %xmm0
  10441. vpxor %xmm8, %xmm1, %xmm1
  10442. vpxor %xmm5, %xmm2, %xmm2
  10443. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
  10444. vpxor %xmm0, %xmm1, %xmm1
  10445. vpxor %xmm3, %xmm1, %xmm1
  10446. vpxor %xmm0, %xmm4, %xmm4
  10447. vpxor %xmm3, %xmm6, %xmm6
  10448. vpslldq $8, %xmm1, %xmm2
  10449. vpsrldq $8, %xmm1, %xmm1
  10450. vpxor %xmm2, %xmm4, %xmm4
  10451. vpxor %xmm1, %xmm6, %xmm6
  10452. vpslld $31, %xmm4, %xmm0
  10453. vpslld $30, %xmm4, %xmm1
  10454. vpslld $25, %xmm4, %xmm2
  10455. vpxor %xmm1, %xmm0, %xmm0
  10456. vpxor %xmm2, %xmm0, %xmm0
  10457. vmovdqa %xmm0, %xmm1
  10458. vpsrldq $4, %xmm1, %xmm1
  10459. vpslldq $12, %xmm0, %xmm0
  10460. vpxor %xmm0, %xmm4, %xmm4
  10461. vpsrld $0x01, %xmm4, %xmm2
  10462. vpsrld $2, %xmm4, %xmm3
  10463. vpsrld $7, %xmm4, %xmm0
  10464. vpxor %xmm3, %xmm2, %xmm2
  10465. vpxor %xmm0, %xmm2, %xmm2
  10466. vpxor %xmm1, %xmm2, %xmm2
  10467. vpxor %xmm4, %xmm2, %xmm2
  10468. vpxor %xmm2, %xmm6, %xmm6
  10469. vmovdqa (%rsp), %xmm5
  10470. L_AES_GCM_encrypt_update_avx1_done_128:
  10471. movl %r8d, %edx
  10472. cmpl %edx, %r14d
  10473. jge L_AES_GCM_encrypt_update_avx1_done_enc
  10474. movl %r8d, %r13d
  10475. andl $0xfffffff0, %r13d
  10476. cmpl %r13d, %r14d
  10477. jge L_AES_GCM_encrypt_update_avx1_last_block_done
  10478. vmovdqa (%r12), %xmm9
  10479. vpshufb L_avx1_aes_gcm_bswap_epi64(%rip), %xmm9, %xmm8
  10480. vpaddd L_avx1_aes_gcm_one(%rip), %xmm9, %xmm9
  10481. vmovdqa %xmm9, (%r12)
  10482. vpxor (%rdi), %xmm8, %xmm8
  10483. vaesenc 16(%rdi), %xmm8, %xmm8
  10484. vaesenc 32(%rdi), %xmm8, %xmm8
  10485. vaesenc 48(%rdi), %xmm8, %xmm8
  10486. vaesenc 64(%rdi), %xmm8, %xmm8
  10487. vaesenc 80(%rdi), %xmm8, %xmm8
  10488. vaesenc 96(%rdi), %xmm8, %xmm8
  10489. vaesenc 112(%rdi), %xmm8, %xmm8
  10490. vaesenc 128(%rdi), %xmm8, %xmm8
  10491. vaesenc 144(%rdi), %xmm8, %xmm8
  10492. cmpl $11, %esi
  10493. vmovdqa 160(%rdi), %xmm9
  10494. jl L_AES_GCM_encrypt_update_avx1_aesenc_block_last
  10495. vaesenc %xmm9, %xmm8, %xmm8
  10496. vaesenc 176(%rdi), %xmm8, %xmm8
  10497. cmpl $13, %esi
  10498. vmovdqa 192(%rdi), %xmm9
  10499. jl L_AES_GCM_encrypt_update_avx1_aesenc_block_last
  10500. vaesenc %xmm9, %xmm8, %xmm8
  10501. vaesenc 208(%rdi), %xmm8, %xmm8
  10502. vmovdqa 224(%rdi), %xmm9
  10503. L_AES_GCM_encrypt_update_avx1_aesenc_block_last:
  10504. vaesenclast %xmm9, %xmm8, %xmm8
  10505. vmovdqu (%r11,%r14,1), %xmm9
  10506. vpxor %xmm9, %xmm8, %xmm8
  10507. vmovdqu %xmm8, (%r10,%r14,1)
  10508. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm8, %xmm8
  10509. vpxor %xmm8, %xmm6, %xmm6
  10510. addl $16, %r14d
  10511. cmpl %r13d, %r14d
  10512. jge L_AES_GCM_encrypt_update_avx1_last_block_ghash
  10513. L_AES_GCM_encrypt_update_avx1_last_block_start:
  10514. vmovdqu (%r11,%r14,1), %xmm13
  10515. vmovdqa (%r12), %xmm9
  10516. vpshufb L_avx1_aes_gcm_bswap_epi64(%rip), %xmm9, %xmm8
  10517. vpaddd L_avx1_aes_gcm_one(%rip), %xmm9, %xmm9
  10518. vmovdqa %xmm9, (%r12)
  10519. vpxor (%rdi), %xmm8, %xmm8
  10520. vpclmulqdq $16, %xmm5, %xmm6, %xmm10
  10521. vaesenc 16(%rdi), %xmm8, %xmm8
  10522. vaesenc 32(%rdi), %xmm8, %xmm8
  10523. vpclmulqdq $0x01, %xmm5, %xmm6, %xmm11
  10524. vaesenc 48(%rdi), %xmm8, %xmm8
  10525. vaesenc 64(%rdi), %xmm8, %xmm8
  10526. vpclmulqdq $0x00, %xmm5, %xmm6, %xmm12
  10527. vaesenc 80(%rdi), %xmm8, %xmm8
  10528. vpclmulqdq $0x11, %xmm5, %xmm6, %xmm1
  10529. vaesenc 96(%rdi), %xmm8, %xmm8
  10530. vpxor %xmm11, %xmm10, %xmm10
  10531. vpslldq $8, %xmm10, %xmm2
  10532. vpsrldq $8, %xmm10, %xmm10
  10533. vaesenc 112(%rdi), %xmm8, %xmm8
  10534. vpxor %xmm12, %xmm2, %xmm2
  10535. vpxor %xmm10, %xmm1, %xmm3
  10536. vmovdqa L_avx1_aes_gcm_mod2_128(%rip), %xmm0
  10537. vpclmulqdq $16, %xmm0, %xmm2, %xmm11
  10538. vaesenc 128(%rdi), %xmm8, %xmm8
  10539. vpshufd $0x4e, %xmm2, %xmm10
  10540. vpxor %xmm11, %xmm10, %xmm10
  10541. vpclmulqdq $16, %xmm0, %xmm10, %xmm11
  10542. vaesenc 144(%rdi), %xmm8, %xmm8
  10543. vpshufd $0x4e, %xmm10, %xmm10
  10544. vpxor %xmm11, %xmm10, %xmm10
  10545. vpxor %xmm3, %xmm10, %xmm6
  10546. cmpl $11, %esi
  10547. vmovdqa 160(%rdi), %xmm9
  10548. jl L_AES_GCM_encrypt_update_avx1_aesenc_gfmul_last
  10549. vaesenc %xmm9, %xmm8, %xmm8
  10550. vaesenc 176(%rdi), %xmm8, %xmm8
  10551. cmpl $13, %esi
  10552. vmovdqa 192(%rdi), %xmm9
  10553. jl L_AES_GCM_encrypt_update_avx1_aesenc_gfmul_last
  10554. vaesenc %xmm9, %xmm8, %xmm8
  10555. vaesenc 208(%rdi), %xmm8, %xmm8
  10556. vmovdqa 224(%rdi), %xmm9
  10557. L_AES_GCM_encrypt_update_avx1_aesenc_gfmul_last:
  10558. vaesenclast %xmm9, %xmm8, %xmm8
  10559. vmovdqa %xmm13, %xmm0
  10560. vpxor %xmm0, %xmm8, %xmm8
  10561. vmovdqu %xmm8, (%r10,%r14,1)
  10562. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm8, %xmm8
  10563. addl $16, %r14d
  10564. vpxor %xmm8, %xmm6, %xmm6
  10565. cmpl %r13d, %r14d
  10566. jl L_AES_GCM_encrypt_update_avx1_last_block_start
  10567. L_AES_GCM_encrypt_update_avx1_last_block_ghash:
  10568. # ghash_gfmul_red_avx
  10569. vpshufd $0x4e, %xmm5, %xmm9
  10570. vpshufd $0x4e, %xmm6, %xmm10
  10571. vpclmulqdq $0x11, %xmm5, %xmm6, %xmm11
  10572. vpclmulqdq $0x00, %xmm5, %xmm6, %xmm8
  10573. vpxor %xmm5, %xmm9, %xmm9
  10574. vpxor %xmm6, %xmm10, %xmm10
  10575. vpclmulqdq $0x00, %xmm10, %xmm9, %xmm9
  10576. vpxor %xmm8, %xmm9, %xmm9
  10577. vpxor %xmm11, %xmm9, %xmm9
  10578. vpslldq $8, %xmm9, %xmm10
  10579. vpsrldq $8, %xmm9, %xmm9
  10580. vpxor %xmm10, %xmm8, %xmm8
  10581. vpxor %xmm9, %xmm11, %xmm6
  10582. vpslld $31, %xmm8, %xmm12
  10583. vpslld $30, %xmm8, %xmm13
  10584. vpslld $25, %xmm8, %xmm14
  10585. vpxor %xmm13, %xmm12, %xmm12
  10586. vpxor %xmm14, %xmm12, %xmm12
  10587. vpsrldq $4, %xmm12, %xmm13
  10588. vpslldq $12, %xmm12, %xmm12
  10589. vpxor %xmm12, %xmm8, %xmm8
  10590. vpsrld $0x01, %xmm8, %xmm14
  10591. vpsrld $2, %xmm8, %xmm10
  10592. vpsrld $7, %xmm8, %xmm9
  10593. vpxor %xmm10, %xmm14, %xmm14
  10594. vpxor %xmm9, %xmm14, %xmm14
  10595. vpxor %xmm13, %xmm14, %xmm14
  10596. vpxor %xmm8, %xmm14, %xmm14
  10597. vpxor %xmm14, %xmm6, %xmm6
  10598. L_AES_GCM_encrypt_update_avx1_last_block_done:
  10599. L_AES_GCM_encrypt_update_avx1_done_enc:
  10600. vmovdqa %xmm6, (%r9)
  10601. vzeroupper
  10602. addq $0xa0, %rsp
  10603. popq %r14
  10604. popq %r12
  10605. popq %r13
  10606. repz retq
  10607. #ifndef __APPLE__
  10608. .size AES_GCM_encrypt_update_avx1,.-AES_GCM_encrypt_update_avx1
  10609. #endif /* __APPLE__ */
  10610. #ifndef __APPLE__
  10611. .text
  10612. .globl AES_GCM_encrypt_final_avx1
  10613. .type AES_GCM_encrypt_final_avx1,@function
  10614. .align 16
  10615. AES_GCM_encrypt_final_avx1:
  10616. #else
  10617. .section __TEXT,__text
  10618. .globl _AES_GCM_encrypt_final_avx1
  10619. .p2align 4
  10620. _AES_GCM_encrypt_final_avx1:
  10621. #endif /* __APPLE__ */
  10622. pushq %r13
  10623. movq %rdx, %rax
  10624. movl %ecx, %r10d
  10625. movl %r8d, %r11d
  10626. movq 16(%rsp), %r8
  10627. subq $16, %rsp
  10628. vmovdqa (%rdi), %xmm4
  10629. vmovdqa (%r9), %xmm5
  10630. vmovdqa (%r8), %xmm6
  10631. vpsrlq $63, %xmm5, %xmm9
  10632. vpsllq $0x01, %xmm5, %xmm8
  10633. vpslldq $8, %xmm9, %xmm9
  10634. vpor %xmm9, %xmm8, %xmm8
  10635. vpshufd $0xff, %xmm5, %xmm5
  10636. vpsrad $31, %xmm5, %xmm5
  10637. vpand L_avx1_aes_gcm_mod2_128(%rip), %xmm5, %xmm5
  10638. vpxor %xmm8, %xmm5, %xmm5
  10639. movl %r10d, %edx
  10640. movl %r11d, %ecx
  10641. shlq $3, %rdx
  10642. shlq $3, %rcx
  10643. vpinsrq $0x00, %rdx, %xmm0, %xmm0
  10644. vpinsrq $0x01, %rcx, %xmm0, %xmm0
  10645. vpxor %xmm0, %xmm4, %xmm4
  10646. # ghash_gfmul_red_avx
  10647. vpshufd $0x4e, %xmm5, %xmm9
  10648. vpshufd $0x4e, %xmm4, %xmm10
  10649. vpclmulqdq $0x11, %xmm5, %xmm4, %xmm11
  10650. vpclmulqdq $0x00, %xmm5, %xmm4, %xmm8
  10651. vpxor %xmm5, %xmm9, %xmm9
  10652. vpxor %xmm4, %xmm10, %xmm10
  10653. vpclmulqdq $0x00, %xmm10, %xmm9, %xmm9
  10654. vpxor %xmm8, %xmm9, %xmm9
  10655. vpxor %xmm11, %xmm9, %xmm9
  10656. vpslldq $8, %xmm9, %xmm10
  10657. vpsrldq $8, %xmm9, %xmm9
  10658. vpxor %xmm10, %xmm8, %xmm8
  10659. vpxor %xmm9, %xmm11, %xmm4
  10660. vpslld $31, %xmm8, %xmm12
  10661. vpslld $30, %xmm8, %xmm13
  10662. vpslld $25, %xmm8, %xmm14
  10663. vpxor %xmm13, %xmm12, %xmm12
  10664. vpxor %xmm14, %xmm12, %xmm12
  10665. vpsrldq $4, %xmm12, %xmm13
  10666. vpslldq $12, %xmm12, %xmm12
  10667. vpxor %xmm12, %xmm8, %xmm8
  10668. vpsrld $0x01, %xmm8, %xmm14
  10669. vpsrld $2, %xmm8, %xmm10
  10670. vpsrld $7, %xmm8, %xmm9
  10671. vpxor %xmm10, %xmm14, %xmm14
  10672. vpxor %xmm9, %xmm14, %xmm14
  10673. vpxor %xmm13, %xmm14, %xmm14
  10674. vpxor %xmm8, %xmm14, %xmm14
  10675. vpxor %xmm14, %xmm4, %xmm4
  10676. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm4, %xmm4
  10677. vpxor %xmm6, %xmm4, %xmm0
  10678. cmpl $16, %eax
  10679. je L_AES_GCM_encrypt_final_avx1_store_tag_16
  10680. xorq %rcx, %rcx
  10681. vmovdqu %xmm0, (%rsp)
  10682. L_AES_GCM_encrypt_final_avx1_store_tag_loop:
  10683. movzbl (%rsp,%rcx,1), %r13d
  10684. movb %r13b, (%rsi,%rcx,1)
  10685. incl %ecx
  10686. cmpl %eax, %ecx
  10687. jne L_AES_GCM_encrypt_final_avx1_store_tag_loop
  10688. jmp L_AES_GCM_encrypt_final_avx1_store_tag_done
  10689. L_AES_GCM_encrypt_final_avx1_store_tag_16:
  10690. vmovdqu %xmm0, (%rsi)
  10691. L_AES_GCM_encrypt_final_avx1_store_tag_done:
  10692. vzeroupper
  10693. addq $16, %rsp
  10694. popq %r13
  10695. repz retq
  10696. #ifndef __APPLE__
  10697. .size AES_GCM_encrypt_final_avx1,.-AES_GCM_encrypt_final_avx1
  10698. #endif /* __APPLE__ */
  10699. #ifndef __APPLE__
  10700. .text
  10701. .globl AES_GCM_decrypt_update_avx1
  10702. .type AES_GCM_decrypt_update_avx1,@function
  10703. .align 16
  10704. AES_GCM_decrypt_update_avx1:
  10705. #else
  10706. .section __TEXT,__text
  10707. .globl _AES_GCM_decrypt_update_avx1
  10708. .p2align 4
  10709. _AES_GCM_decrypt_update_avx1:
  10710. #endif /* __APPLE__ */
  10711. pushq %r13
  10712. pushq %r12
  10713. pushq %r14
  10714. movq %rdx, %r10
  10715. movq %rcx, %r11
  10716. movq 32(%rsp), %rax
  10717. movq 40(%rsp), %r12
  10718. subq $0xa8, %rsp
  10719. vmovdqa (%r9), %xmm6
  10720. vmovdqa (%rax), %xmm5
  10721. vpsrlq $63, %xmm5, %xmm9
  10722. vpsllq $0x01, %xmm5, %xmm8
  10723. vpslldq $8, %xmm9, %xmm9
  10724. vpor %xmm9, %xmm8, %xmm8
  10725. vpshufd $0xff, %xmm5, %xmm5
  10726. vpsrad $31, %xmm5, %xmm5
  10727. vpand L_avx1_aes_gcm_mod2_128(%rip), %xmm5, %xmm5
  10728. vpxor %xmm8, %xmm5, %xmm5
  10729. xorl %r14d, %r14d
  10730. cmpl $0x80, %r8d
  10731. movl %r8d, %r13d
  10732. jl L_AES_GCM_decrypt_update_avx1_done_128
  10733. andl $0xffffff80, %r13d
  10734. vmovdqa %xmm6, %xmm2
  10735. # H ^ 1
  10736. vmovdqa %xmm5, (%rsp)
  10737. # H ^ 2
  10738. vpclmulqdq $0x00, %xmm5, %xmm5, %xmm8
  10739. vpclmulqdq $0x11, %xmm5, %xmm5, %xmm0
  10740. vpslld $31, %xmm8, %xmm12
  10741. vpslld $30, %xmm8, %xmm13
  10742. vpslld $25, %xmm8, %xmm14
  10743. vpxor %xmm13, %xmm12, %xmm12
  10744. vpxor %xmm14, %xmm12, %xmm12
  10745. vpsrldq $4, %xmm12, %xmm13
  10746. vpslldq $12, %xmm12, %xmm12
  10747. vpxor %xmm12, %xmm8, %xmm8
  10748. vpsrld $0x01, %xmm8, %xmm14
  10749. vpsrld $2, %xmm8, %xmm10
  10750. vpsrld $7, %xmm8, %xmm9
  10751. vpxor %xmm10, %xmm14, %xmm14
  10752. vpxor %xmm9, %xmm14, %xmm14
  10753. vpxor %xmm13, %xmm14, %xmm14
  10754. vpxor %xmm8, %xmm14, %xmm14
  10755. vpxor %xmm14, %xmm0, %xmm0
  10756. vmovdqa %xmm0, 16(%rsp)
  10757. # H ^ 3
  10758. # ghash_gfmul_red_avx
  10759. vpshufd $0x4e, %xmm5, %xmm9
  10760. vpshufd $0x4e, %xmm0, %xmm10
  10761. vpclmulqdq $0x11, %xmm5, %xmm0, %xmm11
  10762. vpclmulqdq $0x00, %xmm5, %xmm0, %xmm8
  10763. vpxor %xmm5, %xmm9, %xmm9
  10764. vpxor %xmm0, %xmm10, %xmm10
  10765. vpclmulqdq $0x00, %xmm10, %xmm9, %xmm9
  10766. vpxor %xmm8, %xmm9, %xmm9
  10767. vpxor %xmm11, %xmm9, %xmm9
  10768. vpslldq $8, %xmm9, %xmm10
  10769. vpsrldq $8, %xmm9, %xmm9
  10770. vpxor %xmm10, %xmm8, %xmm8
  10771. vpxor %xmm9, %xmm11, %xmm1
  10772. vpslld $31, %xmm8, %xmm12
  10773. vpslld $30, %xmm8, %xmm13
  10774. vpslld $25, %xmm8, %xmm14
  10775. vpxor %xmm13, %xmm12, %xmm12
  10776. vpxor %xmm14, %xmm12, %xmm12
  10777. vpsrldq $4, %xmm12, %xmm13
  10778. vpslldq $12, %xmm12, %xmm12
  10779. vpxor %xmm12, %xmm8, %xmm8
  10780. vpsrld $0x01, %xmm8, %xmm14
  10781. vpsrld $2, %xmm8, %xmm10
  10782. vpsrld $7, %xmm8, %xmm9
  10783. vpxor %xmm10, %xmm14, %xmm14
  10784. vpxor %xmm9, %xmm14, %xmm14
  10785. vpxor %xmm13, %xmm14, %xmm14
  10786. vpxor %xmm8, %xmm14, %xmm14
  10787. vpxor %xmm14, %xmm1, %xmm1
  10788. vmovdqa %xmm1, 32(%rsp)
  10789. # H ^ 4
  10790. vpclmulqdq $0x00, %xmm0, %xmm0, %xmm8
  10791. vpclmulqdq $0x11, %xmm0, %xmm0, %xmm3
  10792. vpslld $31, %xmm8, %xmm12
  10793. vpslld $30, %xmm8, %xmm13
  10794. vpslld $25, %xmm8, %xmm14
  10795. vpxor %xmm13, %xmm12, %xmm12
  10796. vpxor %xmm14, %xmm12, %xmm12
  10797. vpsrldq $4, %xmm12, %xmm13
  10798. vpslldq $12, %xmm12, %xmm12
  10799. vpxor %xmm12, %xmm8, %xmm8
  10800. vpsrld $0x01, %xmm8, %xmm14
  10801. vpsrld $2, %xmm8, %xmm10
  10802. vpsrld $7, %xmm8, %xmm9
  10803. vpxor %xmm10, %xmm14, %xmm14
  10804. vpxor %xmm9, %xmm14, %xmm14
  10805. vpxor %xmm13, %xmm14, %xmm14
  10806. vpxor %xmm8, %xmm14, %xmm14
  10807. vpxor %xmm14, %xmm3, %xmm3
  10808. vmovdqa %xmm3, 48(%rsp)
  10809. # H ^ 5
  10810. # ghash_gfmul_red_avx
  10811. vpshufd $0x4e, %xmm0, %xmm9
  10812. vpshufd $0x4e, %xmm1, %xmm10
  10813. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm11
  10814. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm8
  10815. vpxor %xmm0, %xmm9, %xmm9
  10816. vpxor %xmm1, %xmm10, %xmm10
  10817. vpclmulqdq $0x00, %xmm10, %xmm9, %xmm9
  10818. vpxor %xmm8, %xmm9, %xmm9
  10819. vpxor %xmm11, %xmm9, %xmm9
  10820. vpslldq $8, %xmm9, %xmm10
  10821. vpsrldq $8, %xmm9, %xmm9
  10822. vpxor %xmm10, %xmm8, %xmm8
  10823. vpxor %xmm9, %xmm11, %xmm7
  10824. vpslld $31, %xmm8, %xmm12
  10825. vpslld $30, %xmm8, %xmm13
  10826. vpslld $25, %xmm8, %xmm14
  10827. vpxor %xmm13, %xmm12, %xmm12
  10828. vpxor %xmm14, %xmm12, %xmm12
  10829. vpsrldq $4, %xmm12, %xmm13
  10830. vpslldq $12, %xmm12, %xmm12
  10831. vpxor %xmm12, %xmm8, %xmm8
  10832. vpsrld $0x01, %xmm8, %xmm14
  10833. vpsrld $2, %xmm8, %xmm10
  10834. vpsrld $7, %xmm8, %xmm9
  10835. vpxor %xmm10, %xmm14, %xmm14
  10836. vpxor %xmm9, %xmm14, %xmm14
  10837. vpxor %xmm13, %xmm14, %xmm14
  10838. vpxor %xmm8, %xmm14, %xmm14
  10839. vpxor %xmm14, %xmm7, %xmm7
  10840. vmovdqa %xmm7, 64(%rsp)
  10841. # H ^ 6
  10842. vpclmulqdq $0x00, %xmm1, %xmm1, %xmm8
  10843. vpclmulqdq $0x11, %xmm1, %xmm1, %xmm7
  10844. vpslld $31, %xmm8, %xmm12
  10845. vpslld $30, %xmm8, %xmm13
  10846. vpslld $25, %xmm8, %xmm14
  10847. vpxor %xmm13, %xmm12, %xmm12
  10848. vpxor %xmm14, %xmm12, %xmm12
  10849. vpsrldq $4, %xmm12, %xmm13
  10850. vpslldq $12, %xmm12, %xmm12
  10851. vpxor %xmm12, %xmm8, %xmm8
  10852. vpsrld $0x01, %xmm8, %xmm14
  10853. vpsrld $2, %xmm8, %xmm10
  10854. vpsrld $7, %xmm8, %xmm9
  10855. vpxor %xmm10, %xmm14, %xmm14
  10856. vpxor %xmm9, %xmm14, %xmm14
  10857. vpxor %xmm13, %xmm14, %xmm14
  10858. vpxor %xmm8, %xmm14, %xmm14
  10859. vpxor %xmm14, %xmm7, %xmm7
  10860. vmovdqa %xmm7, 80(%rsp)
  10861. # H ^ 7
  10862. # ghash_gfmul_red_avx
  10863. vpshufd $0x4e, %xmm1, %xmm9
  10864. vpshufd $0x4e, %xmm3, %xmm10
  10865. vpclmulqdq $0x11, %xmm1, %xmm3, %xmm11
  10866. vpclmulqdq $0x00, %xmm1, %xmm3, %xmm8
  10867. vpxor %xmm1, %xmm9, %xmm9
  10868. vpxor %xmm3, %xmm10, %xmm10
  10869. vpclmulqdq $0x00, %xmm10, %xmm9, %xmm9
  10870. vpxor %xmm8, %xmm9, %xmm9
  10871. vpxor %xmm11, %xmm9, %xmm9
  10872. vpslldq $8, %xmm9, %xmm10
  10873. vpsrldq $8, %xmm9, %xmm9
  10874. vpxor %xmm10, %xmm8, %xmm8
  10875. vpxor %xmm9, %xmm11, %xmm7
  10876. vpslld $31, %xmm8, %xmm12
  10877. vpslld $30, %xmm8, %xmm13
  10878. vpslld $25, %xmm8, %xmm14
  10879. vpxor %xmm13, %xmm12, %xmm12
  10880. vpxor %xmm14, %xmm12, %xmm12
  10881. vpsrldq $4, %xmm12, %xmm13
  10882. vpslldq $12, %xmm12, %xmm12
  10883. vpxor %xmm12, %xmm8, %xmm8
  10884. vpsrld $0x01, %xmm8, %xmm14
  10885. vpsrld $2, %xmm8, %xmm10
  10886. vpsrld $7, %xmm8, %xmm9
  10887. vpxor %xmm10, %xmm14, %xmm14
  10888. vpxor %xmm9, %xmm14, %xmm14
  10889. vpxor %xmm13, %xmm14, %xmm14
  10890. vpxor %xmm8, %xmm14, %xmm14
  10891. vpxor %xmm14, %xmm7, %xmm7
  10892. vmovdqa %xmm7, 96(%rsp)
  10893. # H ^ 8
  10894. vpclmulqdq $0x00, %xmm3, %xmm3, %xmm8
  10895. vpclmulqdq $0x11, %xmm3, %xmm3, %xmm7
  10896. vpslld $31, %xmm8, %xmm12
  10897. vpslld $30, %xmm8, %xmm13
  10898. vpslld $25, %xmm8, %xmm14
  10899. vpxor %xmm13, %xmm12, %xmm12
  10900. vpxor %xmm14, %xmm12, %xmm12
  10901. vpsrldq $4, %xmm12, %xmm13
  10902. vpslldq $12, %xmm12, %xmm12
  10903. vpxor %xmm12, %xmm8, %xmm8
  10904. vpsrld $0x01, %xmm8, %xmm14
  10905. vpsrld $2, %xmm8, %xmm10
  10906. vpsrld $7, %xmm8, %xmm9
  10907. vpxor %xmm10, %xmm14, %xmm14
  10908. vpxor %xmm9, %xmm14, %xmm14
  10909. vpxor %xmm13, %xmm14, %xmm14
  10910. vpxor %xmm8, %xmm14, %xmm14
  10911. vpxor %xmm14, %xmm7, %xmm7
  10912. vmovdqa %xmm7, 112(%rsp)
  10913. L_AES_GCM_decrypt_update_avx1_ghash_128:
  10914. leaq (%r11,%r14,1), %rcx
  10915. leaq (%r10,%r14,1), %rdx
  10916. vmovdqa (%r12), %xmm0
  10917. vmovdqa L_avx1_aes_gcm_bswap_epi64(%rip), %xmm1
  10918. vpshufb %xmm1, %xmm0, %xmm8
  10919. vpaddd L_avx1_aes_gcm_one(%rip), %xmm0, %xmm9
  10920. vpshufb %xmm1, %xmm9, %xmm9
  10921. vpaddd L_avx1_aes_gcm_two(%rip), %xmm0, %xmm10
  10922. vpshufb %xmm1, %xmm10, %xmm10
  10923. vpaddd L_avx1_aes_gcm_three(%rip), %xmm0, %xmm11
  10924. vpshufb %xmm1, %xmm11, %xmm11
  10925. vpaddd L_avx1_aes_gcm_four(%rip), %xmm0, %xmm12
  10926. vpshufb %xmm1, %xmm12, %xmm12
  10927. vpaddd L_avx1_aes_gcm_five(%rip), %xmm0, %xmm13
  10928. vpshufb %xmm1, %xmm13, %xmm13
  10929. vpaddd L_avx1_aes_gcm_six(%rip), %xmm0, %xmm14
  10930. vpshufb %xmm1, %xmm14, %xmm14
  10931. vpaddd L_avx1_aes_gcm_seven(%rip), %xmm0, %xmm15
  10932. vpshufb %xmm1, %xmm15, %xmm15
  10933. vpaddd L_avx1_aes_gcm_eight(%rip), %xmm0, %xmm0
  10934. vmovdqa (%rdi), %xmm7
  10935. vmovdqa %xmm0, (%r12)
  10936. vpxor %xmm7, %xmm8, %xmm8
  10937. vpxor %xmm7, %xmm9, %xmm9
  10938. vpxor %xmm7, %xmm10, %xmm10
  10939. vpxor %xmm7, %xmm11, %xmm11
  10940. vpxor %xmm7, %xmm12, %xmm12
  10941. vpxor %xmm7, %xmm13, %xmm13
  10942. vpxor %xmm7, %xmm14, %xmm14
  10943. vpxor %xmm7, %xmm15, %xmm15
  10944. vmovdqa 112(%rsp), %xmm7
  10945. vmovdqu (%rcx), %xmm0
  10946. vaesenc 16(%rdi), %xmm8, %xmm8
  10947. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  10948. vpxor %xmm2, %xmm0, %xmm0
  10949. vpshufd $0x4e, %xmm7, %xmm1
  10950. vpshufd $0x4e, %xmm0, %xmm5
  10951. vpxor %xmm7, %xmm1, %xmm1
  10952. vpxor %xmm0, %xmm5, %xmm5
  10953. vpclmulqdq $0x11, %xmm7, %xmm0, %xmm3
  10954. vaesenc 16(%rdi), %xmm9, %xmm9
  10955. vaesenc 16(%rdi), %xmm10, %xmm10
  10956. vpclmulqdq $0x00, %xmm7, %xmm0, %xmm2
  10957. vaesenc 16(%rdi), %xmm11, %xmm11
  10958. vaesenc 16(%rdi), %xmm12, %xmm12
  10959. vpclmulqdq $0x00, %xmm5, %xmm1, %xmm1
  10960. vaesenc 16(%rdi), %xmm13, %xmm13
  10961. vaesenc 16(%rdi), %xmm14, %xmm14
  10962. vaesenc 16(%rdi), %xmm15, %xmm15
  10963. vpxor %xmm2, %xmm1, %xmm1
  10964. vpxor %xmm3, %xmm1, %xmm1
  10965. vmovdqa 96(%rsp), %xmm7
  10966. vmovdqu 16(%rcx), %xmm0
  10967. vpshufd $0x4e, %xmm7, %xmm4
  10968. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  10969. vaesenc 32(%rdi), %xmm8, %xmm8
  10970. vpxor %xmm7, %xmm4, %xmm4
  10971. vpshufd $0x4e, %xmm0, %xmm5
  10972. vpxor %xmm0, %xmm5, %xmm5
  10973. vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
  10974. vaesenc 32(%rdi), %xmm9, %xmm9
  10975. vaesenc 32(%rdi), %xmm10, %xmm10
  10976. vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
  10977. vaesenc 32(%rdi), %xmm11, %xmm11
  10978. vaesenc 32(%rdi), %xmm12, %xmm12
  10979. vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
  10980. vaesenc 32(%rdi), %xmm13, %xmm13
  10981. vaesenc 32(%rdi), %xmm14, %xmm14
  10982. vaesenc 32(%rdi), %xmm15, %xmm15
  10983. vpxor %xmm7, %xmm1, %xmm1
  10984. vpxor %xmm7, %xmm2, %xmm2
  10985. vpxor %xmm6, %xmm1, %xmm1
  10986. vpxor %xmm6, %xmm3, %xmm3
  10987. vpxor %xmm4, %xmm1, %xmm1
  10988. vmovdqa 80(%rsp), %xmm7
  10989. vmovdqu 32(%rcx), %xmm0
  10990. vpshufd $0x4e, %xmm7, %xmm4
  10991. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  10992. vaesenc 48(%rdi), %xmm8, %xmm8
  10993. vpxor %xmm7, %xmm4, %xmm4
  10994. vpshufd $0x4e, %xmm0, %xmm5
  10995. vpxor %xmm0, %xmm5, %xmm5
  10996. vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
  10997. vaesenc 48(%rdi), %xmm9, %xmm9
  10998. vaesenc 48(%rdi), %xmm10, %xmm10
  10999. vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
  11000. vaesenc 48(%rdi), %xmm11, %xmm11
  11001. vaesenc 48(%rdi), %xmm12, %xmm12
  11002. vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
  11003. vaesenc 48(%rdi), %xmm13, %xmm13
  11004. vaesenc 48(%rdi), %xmm14, %xmm14
  11005. vaesenc 48(%rdi), %xmm15, %xmm15
  11006. vpxor %xmm7, %xmm1, %xmm1
  11007. vpxor %xmm7, %xmm2, %xmm2
  11008. vpxor %xmm6, %xmm1, %xmm1
  11009. vpxor %xmm6, %xmm3, %xmm3
  11010. vpxor %xmm4, %xmm1, %xmm1
  11011. vmovdqa 64(%rsp), %xmm7
  11012. vmovdqu 48(%rcx), %xmm0
  11013. vpshufd $0x4e, %xmm7, %xmm4
  11014. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  11015. vaesenc 64(%rdi), %xmm8, %xmm8
  11016. vpxor %xmm7, %xmm4, %xmm4
  11017. vpshufd $0x4e, %xmm0, %xmm5
  11018. vpxor %xmm0, %xmm5, %xmm5
  11019. vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
  11020. vaesenc 64(%rdi), %xmm9, %xmm9
  11021. vaesenc 64(%rdi), %xmm10, %xmm10
  11022. vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
  11023. vaesenc 64(%rdi), %xmm11, %xmm11
  11024. vaesenc 64(%rdi), %xmm12, %xmm12
  11025. vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
  11026. vaesenc 64(%rdi), %xmm13, %xmm13
  11027. vaesenc 64(%rdi), %xmm14, %xmm14
  11028. vaesenc 64(%rdi), %xmm15, %xmm15
  11029. vpxor %xmm7, %xmm1, %xmm1
  11030. vpxor %xmm7, %xmm2, %xmm2
  11031. vpxor %xmm6, %xmm1, %xmm1
  11032. vpxor %xmm6, %xmm3, %xmm3
  11033. vpxor %xmm4, %xmm1, %xmm1
  11034. vmovdqa 48(%rsp), %xmm7
  11035. vmovdqu 64(%rcx), %xmm0
  11036. vpshufd $0x4e, %xmm7, %xmm4
  11037. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  11038. vaesenc 80(%rdi), %xmm8, %xmm8
  11039. vpxor %xmm7, %xmm4, %xmm4
  11040. vpshufd $0x4e, %xmm0, %xmm5
  11041. vpxor %xmm0, %xmm5, %xmm5
  11042. vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
  11043. vaesenc 80(%rdi), %xmm9, %xmm9
  11044. vaesenc 80(%rdi), %xmm10, %xmm10
  11045. vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
  11046. vaesenc 80(%rdi), %xmm11, %xmm11
  11047. vaesenc 80(%rdi), %xmm12, %xmm12
  11048. vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
  11049. vaesenc 80(%rdi), %xmm13, %xmm13
  11050. vaesenc 80(%rdi), %xmm14, %xmm14
  11051. vaesenc 80(%rdi), %xmm15, %xmm15
  11052. vpxor %xmm7, %xmm1, %xmm1
  11053. vpxor %xmm7, %xmm2, %xmm2
  11054. vpxor %xmm6, %xmm1, %xmm1
  11055. vpxor %xmm6, %xmm3, %xmm3
  11056. vpxor %xmm4, %xmm1, %xmm1
  11057. vmovdqa 32(%rsp), %xmm7
  11058. vmovdqu 80(%rcx), %xmm0
  11059. vpshufd $0x4e, %xmm7, %xmm4
  11060. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  11061. vaesenc 96(%rdi), %xmm8, %xmm8
  11062. vpxor %xmm7, %xmm4, %xmm4
  11063. vpshufd $0x4e, %xmm0, %xmm5
  11064. vpxor %xmm0, %xmm5, %xmm5
  11065. vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
  11066. vaesenc 96(%rdi), %xmm9, %xmm9
  11067. vaesenc 96(%rdi), %xmm10, %xmm10
  11068. vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
  11069. vaesenc 96(%rdi), %xmm11, %xmm11
  11070. vaesenc 96(%rdi), %xmm12, %xmm12
  11071. vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
  11072. vaesenc 96(%rdi), %xmm13, %xmm13
  11073. vaesenc 96(%rdi), %xmm14, %xmm14
  11074. vaesenc 96(%rdi), %xmm15, %xmm15
  11075. vpxor %xmm7, %xmm1, %xmm1
  11076. vpxor %xmm7, %xmm2, %xmm2
  11077. vpxor %xmm6, %xmm1, %xmm1
  11078. vpxor %xmm6, %xmm3, %xmm3
  11079. vpxor %xmm4, %xmm1, %xmm1
  11080. vmovdqa 16(%rsp), %xmm7
  11081. vmovdqu 96(%rcx), %xmm0
  11082. vpshufd $0x4e, %xmm7, %xmm4
  11083. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  11084. vaesenc 112(%rdi), %xmm8, %xmm8
  11085. vpxor %xmm7, %xmm4, %xmm4
  11086. vpshufd $0x4e, %xmm0, %xmm5
  11087. vpxor %xmm0, %xmm5, %xmm5
  11088. vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
  11089. vaesenc 112(%rdi), %xmm9, %xmm9
  11090. vaesenc 112(%rdi), %xmm10, %xmm10
  11091. vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
  11092. vaesenc 112(%rdi), %xmm11, %xmm11
  11093. vaesenc 112(%rdi), %xmm12, %xmm12
  11094. vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
  11095. vaesenc 112(%rdi), %xmm13, %xmm13
  11096. vaesenc 112(%rdi), %xmm14, %xmm14
  11097. vaesenc 112(%rdi), %xmm15, %xmm15
  11098. vpxor %xmm7, %xmm1, %xmm1
  11099. vpxor %xmm7, %xmm2, %xmm2
  11100. vpxor %xmm6, %xmm1, %xmm1
  11101. vpxor %xmm6, %xmm3, %xmm3
  11102. vpxor %xmm4, %xmm1, %xmm1
  11103. vmovdqa (%rsp), %xmm7
  11104. vmovdqu 112(%rcx), %xmm0
  11105. vpshufd $0x4e, %xmm7, %xmm4
  11106. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  11107. vaesenc 128(%rdi), %xmm8, %xmm8
  11108. vpxor %xmm7, %xmm4, %xmm4
  11109. vpshufd $0x4e, %xmm0, %xmm5
  11110. vpxor %xmm0, %xmm5, %xmm5
  11111. vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
  11112. vaesenc 128(%rdi), %xmm9, %xmm9
  11113. vaesenc 128(%rdi), %xmm10, %xmm10
  11114. vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
  11115. vaesenc 128(%rdi), %xmm11, %xmm11
  11116. vaesenc 128(%rdi), %xmm12, %xmm12
  11117. vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
  11118. vaesenc 128(%rdi), %xmm13, %xmm13
  11119. vaesenc 128(%rdi), %xmm14, %xmm14
  11120. vaesenc 128(%rdi), %xmm15, %xmm15
  11121. vpxor %xmm7, %xmm1, %xmm1
  11122. vpxor %xmm7, %xmm2, %xmm2
  11123. vpxor %xmm6, %xmm1, %xmm1
  11124. vpxor %xmm6, %xmm3, %xmm3
  11125. vpxor %xmm4, %xmm1, %xmm1
  11126. vpslldq $8, %xmm1, %xmm5
  11127. vpsrldq $8, %xmm1, %xmm1
  11128. vaesenc 144(%rdi), %xmm8, %xmm8
  11129. vpxor %xmm5, %xmm2, %xmm2
  11130. vpxor %xmm1, %xmm3, %xmm3
  11131. vaesenc 144(%rdi), %xmm9, %xmm9
  11132. vpslld $31, %xmm2, %xmm7
  11133. vpslld $30, %xmm2, %xmm4
  11134. vpslld $25, %xmm2, %xmm5
  11135. vaesenc 144(%rdi), %xmm10, %xmm10
  11136. vpxor %xmm4, %xmm7, %xmm7
  11137. vpxor %xmm5, %xmm7, %xmm7
  11138. vaesenc 144(%rdi), %xmm11, %xmm11
  11139. vpsrldq $4, %xmm7, %xmm4
  11140. vpslldq $12, %xmm7, %xmm7
  11141. vaesenc 144(%rdi), %xmm12, %xmm12
  11142. vpxor %xmm7, %xmm2, %xmm2
  11143. vpsrld $0x01, %xmm2, %xmm5
  11144. vaesenc 144(%rdi), %xmm13, %xmm13
  11145. vpsrld $2, %xmm2, %xmm1
  11146. vpsrld $7, %xmm2, %xmm0
  11147. vaesenc 144(%rdi), %xmm14, %xmm14
  11148. vpxor %xmm1, %xmm5, %xmm5
  11149. vpxor %xmm0, %xmm5, %xmm5
  11150. vaesenc 144(%rdi), %xmm15, %xmm15
  11151. vpxor %xmm4, %xmm5, %xmm5
  11152. vpxor %xmm5, %xmm2, %xmm2
  11153. vpxor %xmm3, %xmm2, %xmm2
  11154. cmpl $11, %esi
  11155. vmovdqa 160(%rdi), %xmm7
  11156. jl L_AES_GCM_decrypt_update_avx1_aesenc_128_ghash_avx_done
  11157. vaesenc %xmm7, %xmm8, %xmm8
  11158. vaesenc %xmm7, %xmm9, %xmm9
  11159. vaesenc %xmm7, %xmm10, %xmm10
  11160. vaesenc %xmm7, %xmm11, %xmm11
  11161. vaesenc %xmm7, %xmm12, %xmm12
  11162. vaesenc %xmm7, %xmm13, %xmm13
  11163. vaesenc %xmm7, %xmm14, %xmm14
  11164. vaesenc %xmm7, %xmm15, %xmm15
  11165. vmovdqa 176(%rdi), %xmm7
  11166. vaesenc %xmm7, %xmm8, %xmm8
  11167. vaesenc %xmm7, %xmm9, %xmm9
  11168. vaesenc %xmm7, %xmm10, %xmm10
  11169. vaesenc %xmm7, %xmm11, %xmm11
  11170. vaesenc %xmm7, %xmm12, %xmm12
  11171. vaesenc %xmm7, %xmm13, %xmm13
  11172. vaesenc %xmm7, %xmm14, %xmm14
  11173. vaesenc %xmm7, %xmm15, %xmm15
  11174. cmpl $13, %esi
  11175. vmovdqa 192(%rdi), %xmm7
  11176. jl L_AES_GCM_decrypt_update_avx1_aesenc_128_ghash_avx_done
  11177. vaesenc %xmm7, %xmm8, %xmm8
  11178. vaesenc %xmm7, %xmm9, %xmm9
  11179. vaesenc %xmm7, %xmm10, %xmm10
  11180. vaesenc %xmm7, %xmm11, %xmm11
  11181. vaesenc %xmm7, %xmm12, %xmm12
  11182. vaesenc %xmm7, %xmm13, %xmm13
  11183. vaesenc %xmm7, %xmm14, %xmm14
  11184. vaesenc %xmm7, %xmm15, %xmm15
  11185. vmovdqa 208(%rdi), %xmm7
  11186. vaesenc %xmm7, %xmm8, %xmm8
  11187. vaesenc %xmm7, %xmm9, %xmm9
  11188. vaesenc %xmm7, %xmm10, %xmm10
  11189. vaesenc %xmm7, %xmm11, %xmm11
  11190. vaesenc %xmm7, %xmm12, %xmm12
  11191. vaesenc %xmm7, %xmm13, %xmm13
  11192. vaesenc %xmm7, %xmm14, %xmm14
  11193. vaesenc %xmm7, %xmm15, %xmm15
  11194. vmovdqa 224(%rdi), %xmm7
  11195. L_AES_GCM_decrypt_update_avx1_aesenc_128_ghash_avx_done:
  11196. vaesenclast %xmm7, %xmm8, %xmm8
  11197. vaesenclast %xmm7, %xmm9, %xmm9
  11198. vmovdqu (%rcx), %xmm0
  11199. vmovdqu 16(%rcx), %xmm1
  11200. vpxor %xmm0, %xmm8, %xmm8
  11201. vpxor %xmm1, %xmm9, %xmm9
  11202. vmovdqu %xmm8, (%rdx)
  11203. vmovdqu %xmm9, 16(%rdx)
  11204. vaesenclast %xmm7, %xmm10, %xmm10
  11205. vaesenclast %xmm7, %xmm11, %xmm11
  11206. vmovdqu 32(%rcx), %xmm0
  11207. vmovdqu 48(%rcx), %xmm1
  11208. vpxor %xmm0, %xmm10, %xmm10
  11209. vpxor %xmm1, %xmm11, %xmm11
  11210. vmovdqu %xmm10, 32(%rdx)
  11211. vmovdqu %xmm11, 48(%rdx)
  11212. vaesenclast %xmm7, %xmm12, %xmm12
  11213. vaesenclast %xmm7, %xmm13, %xmm13
  11214. vmovdqu 64(%rcx), %xmm0
  11215. vmovdqu 80(%rcx), %xmm1
  11216. vpxor %xmm0, %xmm12, %xmm12
  11217. vpxor %xmm1, %xmm13, %xmm13
  11218. vmovdqu %xmm12, 64(%rdx)
  11219. vmovdqu %xmm13, 80(%rdx)
  11220. vaesenclast %xmm7, %xmm14, %xmm14
  11221. vaesenclast %xmm7, %xmm15, %xmm15
  11222. vmovdqu 96(%rcx), %xmm0
  11223. vmovdqu 112(%rcx), %xmm1
  11224. vpxor %xmm0, %xmm14, %xmm14
  11225. vpxor %xmm1, %xmm15, %xmm15
  11226. vmovdqu %xmm14, 96(%rdx)
  11227. vmovdqu %xmm15, 112(%rdx)
  11228. addl $0x80, %r14d
  11229. cmpl %r13d, %r14d
  11230. jl L_AES_GCM_decrypt_update_avx1_ghash_128
  11231. vmovdqa %xmm2, %xmm6
  11232. vmovdqa (%rsp), %xmm5
  11233. L_AES_GCM_decrypt_update_avx1_done_128:
  11234. movl %r8d, %edx
  11235. cmpl %edx, %r14d
  11236. jge L_AES_GCM_decrypt_update_avx1_done_dec
  11237. movl %r8d, %r13d
  11238. andl $0xfffffff0, %r13d
  11239. cmpl %r13d, %r14d
  11240. jge L_AES_GCM_decrypt_update_avx1_last_block_done
  11241. L_AES_GCM_decrypt_update_avx1_last_block_start:
  11242. vmovdqu (%r11,%r14,1), %xmm13
  11243. vmovdqa %xmm5, %xmm0
  11244. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm13, %xmm1
  11245. vpxor %xmm6, %xmm1, %xmm1
  11246. vmovdqa (%r12), %xmm9
  11247. vpshufb L_avx1_aes_gcm_bswap_epi64(%rip), %xmm9, %xmm8
  11248. vpaddd L_avx1_aes_gcm_one(%rip), %xmm9, %xmm9
  11249. vmovdqa %xmm9, (%r12)
  11250. vpxor (%rdi), %xmm8, %xmm8
  11251. vpclmulqdq $16, %xmm0, %xmm1, %xmm10
  11252. vaesenc 16(%rdi), %xmm8, %xmm8
  11253. vaesenc 32(%rdi), %xmm8, %xmm8
  11254. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm11
  11255. vaesenc 48(%rdi), %xmm8, %xmm8
  11256. vaesenc 64(%rdi), %xmm8, %xmm8
  11257. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm12
  11258. vaesenc 80(%rdi), %xmm8, %xmm8
  11259. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
  11260. vaesenc 96(%rdi), %xmm8, %xmm8
  11261. vpxor %xmm11, %xmm10, %xmm10
  11262. vpslldq $8, %xmm10, %xmm2
  11263. vpsrldq $8, %xmm10, %xmm10
  11264. vaesenc 112(%rdi), %xmm8, %xmm8
  11265. vpxor %xmm12, %xmm2, %xmm2
  11266. vpxor %xmm10, %xmm1, %xmm3
  11267. vmovdqa L_avx1_aes_gcm_mod2_128(%rip), %xmm0
  11268. vpclmulqdq $16, %xmm0, %xmm2, %xmm11
  11269. vaesenc 128(%rdi), %xmm8, %xmm8
  11270. vpshufd $0x4e, %xmm2, %xmm10
  11271. vpxor %xmm11, %xmm10, %xmm10
  11272. vpclmulqdq $16, %xmm0, %xmm10, %xmm11
  11273. vaesenc 144(%rdi), %xmm8, %xmm8
  11274. vpshufd $0x4e, %xmm10, %xmm10
  11275. vpxor %xmm11, %xmm10, %xmm10
  11276. vpxor %xmm3, %xmm10, %xmm6
  11277. cmpl $11, %esi
  11278. vmovdqa 160(%rdi), %xmm9
  11279. jl L_AES_GCM_decrypt_update_avx1_aesenc_gfmul_last
  11280. vaesenc %xmm9, %xmm8, %xmm8
  11281. vaesenc 176(%rdi), %xmm8, %xmm8
  11282. cmpl $13, %esi
  11283. vmovdqa 192(%rdi), %xmm9
  11284. jl L_AES_GCM_decrypt_update_avx1_aesenc_gfmul_last
  11285. vaesenc %xmm9, %xmm8, %xmm8
  11286. vaesenc 208(%rdi), %xmm8, %xmm8
  11287. vmovdqa 224(%rdi), %xmm9
  11288. L_AES_GCM_decrypt_update_avx1_aesenc_gfmul_last:
  11289. vaesenclast %xmm9, %xmm8, %xmm8
  11290. vmovdqa %xmm13, %xmm0
  11291. vpxor %xmm0, %xmm8, %xmm8
  11292. vmovdqu %xmm8, (%r10,%r14,1)
  11293. addl $16, %r14d
  11294. cmpl %r13d, %r14d
  11295. jl L_AES_GCM_decrypt_update_avx1_last_block_start
  11296. L_AES_GCM_decrypt_update_avx1_last_block_done:
  11297. L_AES_GCM_decrypt_update_avx1_done_dec:
  11298. vmovdqa %xmm6, (%r9)
  11299. vzeroupper
  11300. addq $0xa8, %rsp
  11301. popq %r14
  11302. popq %r12
  11303. popq %r13
  11304. repz retq
  11305. #ifndef __APPLE__
  11306. .size AES_GCM_decrypt_update_avx1,.-AES_GCM_decrypt_update_avx1
  11307. #endif /* __APPLE__ */
  11308. #ifndef __APPLE__
  11309. .text
  11310. .globl AES_GCM_decrypt_final_avx1
  11311. .type AES_GCM_decrypt_final_avx1,@function
  11312. .align 16
  11313. AES_GCM_decrypt_final_avx1:
  11314. #else
  11315. .section __TEXT,__text
  11316. .globl _AES_GCM_decrypt_final_avx1
  11317. .p2align 4
  11318. _AES_GCM_decrypt_final_avx1:
  11319. #endif /* __APPLE__ */
  11320. pushq %r13
  11321. pushq %rbp
  11322. pushq %r12
  11323. movq %rdx, %rax
  11324. movl %ecx, %r10d
  11325. movl %r8d, %r11d
  11326. movq 32(%rsp), %r8
  11327. movq 40(%rsp), %rbp
  11328. subq $16, %rsp
  11329. vmovdqa (%rdi), %xmm6
  11330. vmovdqa (%r9), %xmm5
  11331. vmovdqa (%r8), %xmm15
  11332. vpsrlq $63, %xmm5, %xmm9
  11333. vpsllq $0x01, %xmm5, %xmm8
  11334. vpslldq $8, %xmm9, %xmm9
  11335. vpor %xmm9, %xmm8, %xmm8
  11336. vpshufd $0xff, %xmm5, %xmm5
  11337. vpsrad $31, %xmm5, %xmm5
  11338. vpand L_avx1_aes_gcm_mod2_128(%rip), %xmm5, %xmm5
  11339. vpxor %xmm8, %xmm5, %xmm5
  11340. movl %r10d, %edx
  11341. movl %r11d, %ecx
  11342. shlq $3, %rdx
  11343. shlq $3, %rcx
  11344. vpinsrq $0x00, %rdx, %xmm0, %xmm0
  11345. vpinsrq $0x01, %rcx, %xmm0, %xmm0
  11346. vpxor %xmm0, %xmm6, %xmm6
  11347. # ghash_gfmul_red_avx
  11348. vpshufd $0x4e, %xmm5, %xmm9
  11349. vpshufd $0x4e, %xmm6, %xmm10
  11350. vpclmulqdq $0x11, %xmm5, %xmm6, %xmm11
  11351. vpclmulqdq $0x00, %xmm5, %xmm6, %xmm8
  11352. vpxor %xmm5, %xmm9, %xmm9
  11353. vpxor %xmm6, %xmm10, %xmm10
  11354. vpclmulqdq $0x00, %xmm10, %xmm9, %xmm9
  11355. vpxor %xmm8, %xmm9, %xmm9
  11356. vpxor %xmm11, %xmm9, %xmm9
  11357. vpslldq $8, %xmm9, %xmm10
  11358. vpsrldq $8, %xmm9, %xmm9
  11359. vpxor %xmm10, %xmm8, %xmm8
  11360. vpxor %xmm9, %xmm11, %xmm6
  11361. vpslld $31, %xmm8, %xmm12
  11362. vpslld $30, %xmm8, %xmm13
  11363. vpslld $25, %xmm8, %xmm14
  11364. vpxor %xmm13, %xmm12, %xmm12
  11365. vpxor %xmm14, %xmm12, %xmm12
  11366. vpsrldq $4, %xmm12, %xmm13
  11367. vpslldq $12, %xmm12, %xmm12
  11368. vpxor %xmm12, %xmm8, %xmm8
  11369. vpsrld $0x01, %xmm8, %xmm14
  11370. vpsrld $2, %xmm8, %xmm10
  11371. vpsrld $7, %xmm8, %xmm9
  11372. vpxor %xmm10, %xmm14, %xmm14
  11373. vpxor %xmm9, %xmm14, %xmm14
  11374. vpxor %xmm13, %xmm14, %xmm14
  11375. vpxor %xmm8, %xmm14, %xmm14
  11376. vpxor %xmm14, %xmm6, %xmm6
  11377. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm6, %xmm6
  11378. vpxor %xmm15, %xmm6, %xmm0
  11379. cmpl $16, %eax
  11380. je L_AES_GCM_decrypt_final_avx1_cmp_tag_16
  11381. subq $16, %rsp
  11382. xorq %rcx, %rcx
  11383. xorq %r12, %r12
  11384. vmovdqu %xmm0, (%rsp)
  11385. L_AES_GCM_decrypt_final_avx1_cmp_tag_loop:
  11386. movzbl (%rsp,%rcx,1), %r13d
  11387. xorb (%rsi,%rcx,1), %r13b
  11388. orb %r13b, %r12b
  11389. incl %ecx
  11390. cmpl %eax, %ecx
  11391. jne L_AES_GCM_decrypt_final_avx1_cmp_tag_loop
  11392. cmpb $0x00, %r12b
  11393. sete %r12b
  11394. addq $16, %rsp
  11395. xorq %rcx, %rcx
  11396. jmp L_AES_GCM_decrypt_final_avx1_cmp_tag_done
  11397. L_AES_GCM_decrypt_final_avx1_cmp_tag_16:
  11398. vmovdqu (%rsi), %xmm1
  11399. vpcmpeqb %xmm1, %xmm0, %xmm0
  11400. vpmovmskb %xmm0, %rdx
  11401. # %%edx == 0xFFFF then return 1 else => return 0
  11402. xorl %r12d, %r12d
  11403. cmpl $0xffff, %edx
  11404. sete %r12b
  11405. L_AES_GCM_decrypt_final_avx1_cmp_tag_done:
  11406. movl %r12d, (%rbp)
  11407. vzeroupper
  11408. addq $16, %rsp
  11409. popq %r12
  11410. popq %rbp
  11411. popq %r13
  11412. repz retq
  11413. #ifndef __APPLE__
  11414. .size AES_GCM_decrypt_final_avx1,.-AES_GCM_decrypt_final_avx1
  11415. #endif /* __APPLE__ */
  11416. #endif /* WOLFSSL_AESGCM_STREAM */
  11417. #endif /* HAVE_INTEL_AVX1 */
  11418. #ifdef HAVE_INTEL_AVX2
  11419. #ifndef __APPLE__
  11420. .data
  11421. #else
  11422. .section __DATA,__data
  11423. #endif /* __APPLE__ */
  11424. #ifndef __APPLE__
  11425. .align 16
  11426. #else
  11427. .p2align 4
  11428. #endif /* __APPLE__ */
  11429. L_avx2_aes_gcm_one:
  11430. .quad 0x0, 0x1
  11431. #ifndef __APPLE__
  11432. .data
  11433. #else
  11434. .section __DATA,__data
  11435. #endif /* __APPLE__ */
  11436. #ifndef __APPLE__
  11437. .align 16
  11438. #else
  11439. .p2align 4
  11440. #endif /* __APPLE__ */
  11441. L_avx2_aes_gcm_two:
  11442. .quad 0x0, 0x2
  11443. #ifndef __APPLE__
  11444. .data
  11445. #else
  11446. .section __DATA,__data
  11447. #endif /* __APPLE__ */
  11448. #ifndef __APPLE__
  11449. .align 16
  11450. #else
  11451. .p2align 4
  11452. #endif /* __APPLE__ */
  11453. L_avx2_aes_gcm_three:
  11454. .quad 0x0, 0x3
  11455. #ifndef __APPLE__
  11456. .data
  11457. #else
  11458. .section __DATA,__data
  11459. #endif /* __APPLE__ */
  11460. #ifndef __APPLE__
  11461. .align 16
  11462. #else
  11463. .p2align 4
  11464. #endif /* __APPLE__ */
  11465. L_avx2_aes_gcm_four:
  11466. .quad 0x0, 0x4
  11467. #ifndef __APPLE__
  11468. .data
  11469. #else
  11470. .section __DATA,__data
  11471. #endif /* __APPLE__ */
  11472. #ifndef __APPLE__
  11473. .align 16
  11474. #else
  11475. .p2align 4
  11476. #endif /* __APPLE__ */
  11477. L_avx2_aes_gcm_five:
  11478. .quad 0x0, 0x5
  11479. #ifndef __APPLE__
  11480. .data
  11481. #else
  11482. .section __DATA,__data
  11483. #endif /* __APPLE__ */
  11484. #ifndef __APPLE__
  11485. .align 16
  11486. #else
  11487. .p2align 4
  11488. #endif /* __APPLE__ */
  11489. L_avx2_aes_gcm_six:
  11490. .quad 0x0, 0x6
  11491. #ifndef __APPLE__
  11492. .data
  11493. #else
  11494. .section __DATA,__data
  11495. #endif /* __APPLE__ */
  11496. #ifndef __APPLE__
  11497. .align 16
  11498. #else
  11499. .p2align 4
  11500. #endif /* __APPLE__ */
  11501. L_avx2_aes_gcm_seven:
  11502. .quad 0x0, 0x7
  11503. #ifndef __APPLE__
  11504. .data
  11505. #else
  11506. .section __DATA,__data
  11507. #endif /* __APPLE__ */
  11508. #ifndef __APPLE__
  11509. .align 16
  11510. #else
  11511. .p2align 4
  11512. #endif /* __APPLE__ */
  11513. L_avx2_aes_gcm_eight:
  11514. .quad 0x0, 0x8
  11515. #ifndef __APPLE__
  11516. .data
  11517. #else
  11518. .section __DATA,__data
  11519. #endif /* __APPLE__ */
  11520. #ifndef __APPLE__
  11521. .align 16
  11522. #else
  11523. .p2align 4
  11524. #endif /* __APPLE__ */
  11525. L_avx2_aes_gcm_bswap_one:
  11526. .quad 0x0, 0x100000000000000
  11527. #ifndef __APPLE__
  11528. .data
  11529. #else
  11530. .section __DATA,__data
  11531. #endif /* __APPLE__ */
  11532. #ifndef __APPLE__
  11533. .align 16
  11534. #else
  11535. .p2align 4
  11536. #endif /* __APPLE__ */
  11537. L_avx2_aes_gcm_bswap_epi64:
  11538. .quad 0x1020304050607, 0x8090a0b0c0d0e0f
  11539. #ifndef __APPLE__
  11540. .data
  11541. #else
  11542. .section __DATA,__data
  11543. #endif /* __APPLE__ */
  11544. #ifndef __APPLE__
  11545. .align 16
  11546. #else
  11547. .p2align 4
  11548. #endif /* __APPLE__ */
  11549. L_avx2_aes_gcm_bswap_mask:
  11550. .quad 0x8090a0b0c0d0e0f, 0x1020304050607
  11551. #ifndef __APPLE__
  11552. .data
  11553. #else
  11554. .section __DATA,__data
  11555. #endif /* __APPLE__ */
  11556. #ifndef __APPLE__
  11557. .align 16
  11558. #else
  11559. .p2align 4
  11560. #endif /* __APPLE__ */
  11561. L_avx2_aes_gcm_mod2_128:
  11562. .quad 0x1, 0xc200000000000000
  11563. #ifndef __APPLE__
  11564. .text
  11565. .globl AES_GCM_encrypt_avx2
  11566. .type AES_GCM_encrypt_avx2,@function
  11567. .align 16
  11568. AES_GCM_encrypt_avx2:
  11569. #else
  11570. .section __TEXT,__text
  11571. .globl _AES_GCM_encrypt_avx2
  11572. .p2align 4
  11573. _AES_GCM_encrypt_avx2:
  11574. #endif /* __APPLE__ */
  11575. pushq %r13
  11576. pushq %r12
  11577. pushq %r15
  11578. pushq %rbx
  11579. pushq %r14
  11580. movq %rdx, %r12
  11581. movq %rcx, %rax
  11582. movq %r8, %r15
  11583. movq %rsi, %r8
  11584. movl %r9d, %r10d
  11585. movl 48(%rsp), %r11d
  11586. movl 56(%rsp), %ebx
  11587. movl 64(%rsp), %r14d
  11588. movq 72(%rsp), %rsi
  11589. movl 80(%rsp), %r9d
  11590. subq $0xa0, %rsp
  11591. vpxor %xmm4, %xmm4, %xmm4
  11592. vpxor %xmm6, %xmm6, %xmm6
  11593. movl %ebx, %edx
  11594. cmpl $12, %edx
  11595. je L_AES_GCM_encrypt_avx2_iv_12
  11596. # Calculate values when IV is not 12 bytes
  11597. # H = Encrypt X(=0)
  11598. vmovdqa (%rsi), %xmm5
  11599. vaesenc 16(%rsi), %xmm5, %xmm5
  11600. vaesenc 32(%rsi), %xmm5, %xmm5
  11601. vaesenc 48(%rsi), %xmm5, %xmm5
  11602. vaesenc 64(%rsi), %xmm5, %xmm5
  11603. vaesenc 80(%rsi), %xmm5, %xmm5
  11604. vaesenc 96(%rsi), %xmm5, %xmm5
  11605. vaesenc 112(%rsi), %xmm5, %xmm5
  11606. vaesenc 128(%rsi), %xmm5, %xmm5
  11607. vaesenc 144(%rsi), %xmm5, %xmm5
  11608. cmpl $11, %r9d
  11609. vmovdqa 160(%rsi), %xmm0
  11610. jl L_AES_GCM_encrypt_avx2_calc_iv_1_aesenc_avx_last
  11611. vaesenc %xmm0, %xmm5, %xmm5
  11612. vaesenc 176(%rsi), %xmm5, %xmm5
  11613. cmpl $13, %r9d
  11614. vmovdqa 192(%rsi), %xmm0
  11615. jl L_AES_GCM_encrypt_avx2_calc_iv_1_aesenc_avx_last
  11616. vaesenc %xmm0, %xmm5, %xmm5
  11617. vaesenc 208(%rsi), %xmm5, %xmm5
  11618. vmovdqa 224(%rsi), %xmm0
  11619. L_AES_GCM_encrypt_avx2_calc_iv_1_aesenc_avx_last:
  11620. vaesenclast %xmm0, %xmm5, %xmm5
  11621. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm5, %xmm5
  11622. # Calc counter
  11623. # Initialization vector
  11624. cmpl $0x00, %edx
  11625. movq $0x00, %rcx
  11626. je L_AES_GCM_encrypt_avx2_calc_iv_done
  11627. cmpl $16, %edx
  11628. jl L_AES_GCM_encrypt_avx2_calc_iv_lt16
  11629. andl $0xfffffff0, %edx
  11630. L_AES_GCM_encrypt_avx2_calc_iv_16_loop:
  11631. vmovdqu (%rax,%rcx,1), %xmm0
  11632. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  11633. vpxor %xmm0, %xmm4, %xmm4
  11634. # ghash_gfmul_avx
  11635. vpclmulqdq $16, %xmm4, %xmm5, %xmm2
  11636. vpclmulqdq $0x01, %xmm4, %xmm5, %xmm1
  11637. vpclmulqdq $0x00, %xmm4, %xmm5, %xmm0
  11638. vpclmulqdq $0x11, %xmm4, %xmm5, %xmm3
  11639. vpxor %xmm1, %xmm2, %xmm2
  11640. vpslldq $8, %xmm2, %xmm1
  11641. vpsrldq $8, %xmm2, %xmm2
  11642. vpxor %xmm1, %xmm0, %xmm7
  11643. vpxor %xmm2, %xmm3, %xmm4
  11644. # ghash_mid
  11645. vpsrld $31, %xmm7, %xmm0
  11646. vpsrld $31, %xmm4, %xmm1
  11647. vpslld $0x01, %xmm7, %xmm7
  11648. vpslld $0x01, %xmm4, %xmm4
  11649. vpsrldq $12, %xmm0, %xmm2
  11650. vpslldq $4, %xmm0, %xmm0
  11651. vpslldq $4, %xmm1, %xmm1
  11652. vpor %xmm2, %xmm4, %xmm4
  11653. vpor %xmm0, %xmm7, %xmm7
  11654. vpor %xmm1, %xmm4, %xmm4
  11655. # ghash_red
  11656. vmovdqa L_avx2_aes_gcm_mod2_128(%rip), %xmm2
  11657. vpclmulqdq $16, %xmm2, %xmm7, %xmm0
  11658. vpshufd $0x4e, %xmm7, %xmm1
  11659. vpxor %xmm0, %xmm1, %xmm1
  11660. vpclmulqdq $16, %xmm2, %xmm1, %xmm0
  11661. vpshufd $0x4e, %xmm1, %xmm1
  11662. vpxor %xmm0, %xmm1, %xmm1
  11663. vpxor %xmm1, %xmm4, %xmm4
  11664. addl $16, %ecx
  11665. cmpl %edx, %ecx
  11666. jl L_AES_GCM_encrypt_avx2_calc_iv_16_loop
  11667. movl %ebx, %edx
  11668. cmpl %edx, %ecx
  11669. je L_AES_GCM_encrypt_avx2_calc_iv_done
  11670. L_AES_GCM_encrypt_avx2_calc_iv_lt16:
  11671. vpxor %xmm0, %xmm0, %xmm0
  11672. xorl %ebx, %ebx
  11673. vmovdqu %xmm0, (%rsp)
  11674. L_AES_GCM_encrypt_avx2_calc_iv_loop:
  11675. movzbl (%rax,%rcx,1), %r13d
  11676. movb %r13b, (%rsp,%rbx,1)
  11677. incl %ecx
  11678. incl %ebx
  11679. cmpl %edx, %ecx
  11680. jl L_AES_GCM_encrypt_avx2_calc_iv_loop
  11681. vmovdqu (%rsp), %xmm0
  11682. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  11683. vpxor %xmm0, %xmm4, %xmm4
  11684. # ghash_gfmul_avx
  11685. vpclmulqdq $16, %xmm4, %xmm5, %xmm2
  11686. vpclmulqdq $0x01, %xmm4, %xmm5, %xmm1
  11687. vpclmulqdq $0x00, %xmm4, %xmm5, %xmm0
  11688. vpclmulqdq $0x11, %xmm4, %xmm5, %xmm3
  11689. vpxor %xmm1, %xmm2, %xmm2
  11690. vpslldq $8, %xmm2, %xmm1
  11691. vpsrldq $8, %xmm2, %xmm2
  11692. vpxor %xmm1, %xmm0, %xmm7
  11693. vpxor %xmm2, %xmm3, %xmm4
  11694. # ghash_mid
  11695. vpsrld $31, %xmm7, %xmm0
  11696. vpsrld $31, %xmm4, %xmm1
  11697. vpslld $0x01, %xmm7, %xmm7
  11698. vpslld $0x01, %xmm4, %xmm4
  11699. vpsrldq $12, %xmm0, %xmm2
  11700. vpslldq $4, %xmm0, %xmm0
  11701. vpslldq $4, %xmm1, %xmm1
  11702. vpor %xmm2, %xmm4, %xmm4
  11703. vpor %xmm0, %xmm7, %xmm7
  11704. vpor %xmm1, %xmm4, %xmm4
  11705. # ghash_red
  11706. vmovdqa L_avx2_aes_gcm_mod2_128(%rip), %xmm2
  11707. vpclmulqdq $16, %xmm2, %xmm7, %xmm0
  11708. vpshufd $0x4e, %xmm7, %xmm1
  11709. vpxor %xmm0, %xmm1, %xmm1
  11710. vpclmulqdq $16, %xmm2, %xmm1, %xmm0
  11711. vpshufd $0x4e, %xmm1, %xmm1
  11712. vpxor %xmm0, %xmm1, %xmm1
  11713. vpxor %xmm1, %xmm4, %xmm4
  11714. L_AES_GCM_encrypt_avx2_calc_iv_done:
  11715. # T = Encrypt counter
  11716. vpxor %xmm0, %xmm0, %xmm0
  11717. shll $3, %edx
  11718. vpinsrq $0x00, %rdx, %xmm0, %xmm0
  11719. vpxor %xmm0, %xmm4, %xmm4
  11720. # ghash_gfmul_avx
  11721. vpclmulqdq $16, %xmm4, %xmm5, %xmm2
  11722. vpclmulqdq $0x01, %xmm4, %xmm5, %xmm1
  11723. vpclmulqdq $0x00, %xmm4, %xmm5, %xmm0
  11724. vpclmulqdq $0x11, %xmm4, %xmm5, %xmm3
  11725. vpxor %xmm1, %xmm2, %xmm2
  11726. vpslldq $8, %xmm2, %xmm1
  11727. vpsrldq $8, %xmm2, %xmm2
  11728. vpxor %xmm1, %xmm0, %xmm7
  11729. vpxor %xmm2, %xmm3, %xmm4
  11730. # ghash_mid
  11731. vpsrld $31, %xmm7, %xmm0
  11732. vpsrld $31, %xmm4, %xmm1
  11733. vpslld $0x01, %xmm7, %xmm7
  11734. vpslld $0x01, %xmm4, %xmm4
  11735. vpsrldq $12, %xmm0, %xmm2
  11736. vpslldq $4, %xmm0, %xmm0
  11737. vpslldq $4, %xmm1, %xmm1
  11738. vpor %xmm2, %xmm4, %xmm4
  11739. vpor %xmm0, %xmm7, %xmm7
  11740. vpor %xmm1, %xmm4, %xmm4
  11741. # ghash_red
  11742. vmovdqa L_avx2_aes_gcm_mod2_128(%rip), %xmm2
  11743. vpclmulqdq $16, %xmm2, %xmm7, %xmm0
  11744. vpshufd $0x4e, %xmm7, %xmm1
  11745. vpxor %xmm0, %xmm1, %xmm1
  11746. vpclmulqdq $16, %xmm2, %xmm1, %xmm0
  11747. vpshufd $0x4e, %xmm1, %xmm1
  11748. vpxor %xmm0, %xmm1, %xmm1
  11749. vpxor %xmm1, %xmm4, %xmm4
  11750. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm4, %xmm4
  11751. # Encrypt counter
  11752. vmovdqa (%rsi), %xmm15
  11753. vpxor %xmm4, %xmm15, %xmm15
  11754. vaesenc 16(%rsi), %xmm15, %xmm15
  11755. vaesenc 32(%rsi), %xmm15, %xmm15
  11756. vaesenc 48(%rsi), %xmm15, %xmm15
  11757. vaesenc 64(%rsi), %xmm15, %xmm15
  11758. vaesenc 80(%rsi), %xmm15, %xmm15
  11759. vaesenc 96(%rsi), %xmm15, %xmm15
  11760. vaesenc 112(%rsi), %xmm15, %xmm15
  11761. vaesenc 128(%rsi), %xmm15, %xmm15
  11762. vaesenc 144(%rsi), %xmm15, %xmm15
  11763. cmpl $11, %r9d
  11764. vmovdqa 160(%rsi), %xmm0
  11765. jl L_AES_GCM_encrypt_avx2_calc_iv_2_aesenc_avx_last
  11766. vaesenc %xmm0, %xmm15, %xmm15
  11767. vaesenc 176(%rsi), %xmm15, %xmm15
  11768. cmpl $13, %r9d
  11769. vmovdqa 192(%rsi), %xmm0
  11770. jl L_AES_GCM_encrypt_avx2_calc_iv_2_aesenc_avx_last
  11771. vaesenc %xmm0, %xmm15, %xmm15
  11772. vaesenc 208(%rsi), %xmm15, %xmm15
  11773. vmovdqa 224(%rsi), %xmm0
  11774. L_AES_GCM_encrypt_avx2_calc_iv_2_aesenc_avx_last:
  11775. vaesenclast %xmm0, %xmm15, %xmm15
  11776. jmp L_AES_GCM_encrypt_avx2_iv_done
  11777. L_AES_GCM_encrypt_avx2_iv_12:
  11778. # # Calculate values when IV is 12 bytes
  11779. # Set counter based on IV
  11780. vmovdqa L_avx2_aes_gcm_bswap_one(%rip), %xmm4
  11781. vmovdqa (%rsi), %xmm5
  11782. vpblendd $7, (%rax), %xmm4, %xmm4
  11783. # H = Encrypt X(=0) and T = Encrypt counter
  11784. vmovdqa 16(%rsi), %xmm7
  11785. vpxor %xmm5, %xmm4, %xmm15
  11786. vaesenc %xmm7, %xmm5, %xmm5
  11787. vaesenc %xmm7, %xmm15, %xmm15
  11788. vmovdqa 32(%rsi), %xmm0
  11789. vaesenc %xmm0, %xmm5, %xmm5
  11790. vaesenc %xmm0, %xmm15, %xmm15
  11791. vmovdqa 48(%rsi), %xmm0
  11792. vaesenc %xmm0, %xmm5, %xmm5
  11793. vaesenc %xmm0, %xmm15, %xmm15
  11794. vmovdqa 64(%rsi), %xmm0
  11795. vaesenc %xmm0, %xmm5, %xmm5
  11796. vaesenc %xmm0, %xmm15, %xmm15
  11797. vmovdqa 80(%rsi), %xmm0
  11798. vaesenc %xmm0, %xmm5, %xmm5
  11799. vaesenc %xmm0, %xmm15, %xmm15
  11800. vmovdqa 96(%rsi), %xmm0
  11801. vaesenc %xmm0, %xmm5, %xmm5
  11802. vaesenc %xmm0, %xmm15, %xmm15
  11803. vmovdqa 112(%rsi), %xmm0
  11804. vaesenc %xmm0, %xmm5, %xmm5
  11805. vaesenc %xmm0, %xmm15, %xmm15
  11806. vmovdqa 128(%rsi), %xmm0
  11807. vaesenc %xmm0, %xmm5, %xmm5
  11808. vaesenc %xmm0, %xmm15, %xmm15
  11809. vmovdqa 144(%rsi), %xmm0
  11810. vaesenc %xmm0, %xmm5, %xmm5
  11811. vaesenc %xmm0, %xmm15, %xmm15
  11812. cmpl $11, %r9d
  11813. vmovdqa 160(%rsi), %xmm0
  11814. jl L_AES_GCM_encrypt_avx2_calc_iv_12_last
  11815. vaesenc %xmm0, %xmm5, %xmm5
  11816. vaesenc %xmm0, %xmm15, %xmm15
  11817. vmovdqa 176(%rsi), %xmm0
  11818. vaesenc %xmm0, %xmm5, %xmm5
  11819. vaesenc %xmm0, %xmm15, %xmm15
  11820. cmpl $13, %r9d
  11821. vmovdqa 192(%rsi), %xmm0
  11822. jl L_AES_GCM_encrypt_avx2_calc_iv_12_last
  11823. vaesenc %xmm0, %xmm5, %xmm5
  11824. vaesenc %xmm0, %xmm15, %xmm15
  11825. vmovdqa 208(%rsi), %xmm0
  11826. vaesenc %xmm0, %xmm5, %xmm5
  11827. vaesenc %xmm0, %xmm15, %xmm15
  11828. vmovdqa 224(%rsi), %xmm0
  11829. L_AES_GCM_encrypt_avx2_calc_iv_12_last:
  11830. vaesenclast %xmm0, %xmm5, %xmm5
  11831. vaesenclast %xmm0, %xmm15, %xmm15
  11832. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm5, %xmm5
  11833. L_AES_GCM_encrypt_avx2_iv_done:
  11834. # Additional authentication data
  11835. movl %r11d, %edx
  11836. cmpl $0x00, %edx
  11837. je L_AES_GCM_encrypt_avx2_calc_aad_done
  11838. xorl %ecx, %ecx
  11839. cmpl $16, %edx
  11840. jl L_AES_GCM_encrypt_avx2_calc_aad_lt16
  11841. andl $0xfffffff0, %edx
  11842. L_AES_GCM_encrypt_avx2_calc_aad_16_loop:
  11843. vmovdqu (%r12,%rcx,1), %xmm0
  11844. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  11845. vpxor %xmm0, %xmm6, %xmm6
  11846. # ghash_gfmul_avx
  11847. vpclmulqdq $16, %xmm6, %xmm5, %xmm2
  11848. vpclmulqdq $0x01, %xmm6, %xmm5, %xmm1
  11849. vpclmulqdq $0x00, %xmm6, %xmm5, %xmm0
  11850. vpclmulqdq $0x11, %xmm6, %xmm5, %xmm3
  11851. vpxor %xmm1, %xmm2, %xmm2
  11852. vpslldq $8, %xmm2, %xmm1
  11853. vpsrldq $8, %xmm2, %xmm2
  11854. vpxor %xmm1, %xmm0, %xmm7
  11855. vpxor %xmm2, %xmm3, %xmm6
  11856. # ghash_mid
  11857. vpsrld $31, %xmm7, %xmm0
  11858. vpsrld $31, %xmm6, %xmm1
  11859. vpslld $0x01, %xmm7, %xmm7
  11860. vpslld $0x01, %xmm6, %xmm6
  11861. vpsrldq $12, %xmm0, %xmm2
  11862. vpslldq $4, %xmm0, %xmm0
  11863. vpslldq $4, %xmm1, %xmm1
  11864. vpor %xmm2, %xmm6, %xmm6
  11865. vpor %xmm0, %xmm7, %xmm7
  11866. vpor %xmm1, %xmm6, %xmm6
  11867. # ghash_red
  11868. vmovdqa L_avx2_aes_gcm_mod2_128(%rip), %xmm2
  11869. vpclmulqdq $16, %xmm2, %xmm7, %xmm0
  11870. vpshufd $0x4e, %xmm7, %xmm1
  11871. vpxor %xmm0, %xmm1, %xmm1
  11872. vpclmulqdq $16, %xmm2, %xmm1, %xmm0
  11873. vpshufd $0x4e, %xmm1, %xmm1
  11874. vpxor %xmm0, %xmm1, %xmm1
  11875. vpxor %xmm1, %xmm6, %xmm6
  11876. addl $16, %ecx
  11877. cmpl %edx, %ecx
  11878. jl L_AES_GCM_encrypt_avx2_calc_aad_16_loop
  11879. movl %r11d, %edx
  11880. cmpl %edx, %ecx
  11881. je L_AES_GCM_encrypt_avx2_calc_aad_done
  11882. L_AES_GCM_encrypt_avx2_calc_aad_lt16:
  11883. vpxor %xmm0, %xmm0, %xmm0
  11884. xorl %ebx, %ebx
  11885. vmovdqu %xmm0, (%rsp)
  11886. L_AES_GCM_encrypt_avx2_calc_aad_loop:
  11887. movzbl (%r12,%rcx,1), %r13d
  11888. movb %r13b, (%rsp,%rbx,1)
  11889. incl %ecx
  11890. incl %ebx
  11891. cmpl %edx, %ecx
  11892. jl L_AES_GCM_encrypt_avx2_calc_aad_loop
  11893. vmovdqu (%rsp), %xmm0
  11894. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  11895. vpxor %xmm0, %xmm6, %xmm6
  11896. # ghash_gfmul_avx
  11897. vpclmulqdq $16, %xmm6, %xmm5, %xmm2
  11898. vpclmulqdq $0x01, %xmm6, %xmm5, %xmm1
  11899. vpclmulqdq $0x00, %xmm6, %xmm5, %xmm0
  11900. vpclmulqdq $0x11, %xmm6, %xmm5, %xmm3
  11901. vpxor %xmm1, %xmm2, %xmm2
  11902. vpslldq $8, %xmm2, %xmm1
  11903. vpsrldq $8, %xmm2, %xmm2
  11904. vpxor %xmm1, %xmm0, %xmm7
  11905. vpxor %xmm2, %xmm3, %xmm6
  11906. # ghash_mid
  11907. vpsrld $31, %xmm7, %xmm0
  11908. vpsrld $31, %xmm6, %xmm1
  11909. vpslld $0x01, %xmm7, %xmm7
  11910. vpslld $0x01, %xmm6, %xmm6
  11911. vpsrldq $12, %xmm0, %xmm2
  11912. vpslldq $4, %xmm0, %xmm0
  11913. vpslldq $4, %xmm1, %xmm1
  11914. vpor %xmm2, %xmm6, %xmm6
  11915. vpor %xmm0, %xmm7, %xmm7
  11916. vpor %xmm1, %xmm6, %xmm6
  11917. # ghash_red
  11918. vmovdqa L_avx2_aes_gcm_mod2_128(%rip), %xmm2
  11919. vpclmulqdq $16, %xmm2, %xmm7, %xmm0
  11920. vpshufd $0x4e, %xmm7, %xmm1
  11921. vpxor %xmm0, %xmm1, %xmm1
  11922. vpclmulqdq $16, %xmm2, %xmm1, %xmm0
  11923. vpshufd $0x4e, %xmm1, %xmm1
  11924. vpxor %xmm0, %xmm1, %xmm1
  11925. vpxor %xmm1, %xmm6, %xmm6
  11926. L_AES_GCM_encrypt_avx2_calc_aad_done:
  11927. # Calculate counter and H
  11928. vpsrlq $63, %xmm5, %xmm1
  11929. vpsllq $0x01, %xmm5, %xmm0
  11930. vpslldq $8, %xmm1, %xmm1
  11931. vpor %xmm1, %xmm0, %xmm0
  11932. vpshufd $0xff, %xmm5, %xmm5
  11933. vpsrad $31, %xmm5, %xmm5
  11934. vpshufb L_avx2_aes_gcm_bswap_epi64(%rip), %xmm4, %xmm4
  11935. vpand L_avx2_aes_gcm_mod2_128(%rip), %xmm5, %xmm5
  11936. vpaddd L_avx2_aes_gcm_one(%rip), %xmm4, %xmm4
  11937. vpxor %xmm0, %xmm5, %xmm5
  11938. xorl %ebx, %ebx
  11939. cmpl $0x80, %r10d
  11940. movl %r10d, %r13d
  11941. jl L_AES_GCM_encrypt_avx2_done_128
  11942. andl $0xffffff80, %r13d
  11943. vmovdqa %xmm4, 128(%rsp)
  11944. vmovdqa %xmm15, 144(%rsp)
  11945. vmovdqa L_avx2_aes_gcm_mod2_128(%rip), %xmm3
  11946. # H ^ 1 and H ^ 2
  11947. vpclmulqdq $0x00, %xmm5, %xmm5, %xmm9
  11948. vpclmulqdq $0x11, %xmm5, %xmm5, %xmm10
  11949. vpclmulqdq $16, %xmm3, %xmm9, %xmm8
  11950. vpshufd $0x4e, %xmm9, %xmm9
  11951. vpxor %xmm8, %xmm9, %xmm9
  11952. vpclmulqdq $16, %xmm3, %xmm9, %xmm8
  11953. vpshufd $0x4e, %xmm9, %xmm9
  11954. vpxor %xmm8, %xmm9, %xmm9
  11955. vpxor %xmm9, %xmm10, %xmm0
  11956. vmovdqa %xmm5, (%rsp)
  11957. vmovdqa %xmm0, 16(%rsp)
  11958. # H ^ 3 and H ^ 4
  11959. vpclmulqdq $16, %xmm5, %xmm0, %xmm11
  11960. vpclmulqdq $0x01, %xmm5, %xmm0, %xmm10
  11961. vpclmulqdq $0x00, %xmm5, %xmm0, %xmm9
  11962. vpclmulqdq $0x11, %xmm5, %xmm0, %xmm12
  11963. vpclmulqdq $0x00, %xmm0, %xmm0, %xmm13
  11964. vpclmulqdq $0x11, %xmm0, %xmm0, %xmm14
  11965. vpxor %xmm10, %xmm11, %xmm11
  11966. vpslldq $8, %xmm11, %xmm10
  11967. vpsrldq $8, %xmm11, %xmm11
  11968. vpxor %xmm9, %xmm10, %xmm10
  11969. vpclmulqdq $16, %xmm3, %xmm13, %xmm8
  11970. vpclmulqdq $16, %xmm3, %xmm10, %xmm9
  11971. vpshufd $0x4e, %xmm10, %xmm10
  11972. vpshufd $0x4e, %xmm13, %xmm13
  11973. vpxor %xmm9, %xmm10, %xmm10
  11974. vpxor %xmm8, %xmm13, %xmm13
  11975. vpclmulqdq $16, %xmm3, %xmm10, %xmm9
  11976. vpclmulqdq $16, %xmm3, %xmm13, %xmm8
  11977. vpshufd $0x4e, %xmm10, %xmm10
  11978. vpshufd $0x4e, %xmm13, %xmm13
  11979. vpxor %xmm11, %xmm12, %xmm12
  11980. vpxor %xmm8, %xmm13, %xmm13
  11981. vpxor %xmm12, %xmm10, %xmm10
  11982. vpxor %xmm14, %xmm13, %xmm2
  11983. vpxor %xmm9, %xmm10, %xmm1
  11984. vmovdqa %xmm1, 32(%rsp)
  11985. vmovdqa %xmm2, 48(%rsp)
  11986. # H ^ 5 and H ^ 6
  11987. vpclmulqdq $16, %xmm0, %xmm1, %xmm11
  11988. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm10
  11989. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm9
  11990. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm12
  11991. vpclmulqdq $0x00, %xmm1, %xmm1, %xmm13
  11992. vpclmulqdq $0x11, %xmm1, %xmm1, %xmm14
  11993. vpxor %xmm10, %xmm11, %xmm11
  11994. vpslldq $8, %xmm11, %xmm10
  11995. vpsrldq $8, %xmm11, %xmm11
  11996. vpxor %xmm9, %xmm10, %xmm10
  11997. vpclmulqdq $16, %xmm3, %xmm13, %xmm8
  11998. vpclmulqdq $16, %xmm3, %xmm10, %xmm9
  11999. vpshufd $0x4e, %xmm10, %xmm10
  12000. vpshufd $0x4e, %xmm13, %xmm13
  12001. vpxor %xmm9, %xmm10, %xmm10
  12002. vpxor %xmm8, %xmm13, %xmm13
  12003. vpclmulqdq $16, %xmm3, %xmm10, %xmm9
  12004. vpclmulqdq $16, %xmm3, %xmm13, %xmm8
  12005. vpshufd $0x4e, %xmm10, %xmm10
  12006. vpshufd $0x4e, %xmm13, %xmm13
  12007. vpxor %xmm11, %xmm12, %xmm12
  12008. vpxor %xmm8, %xmm13, %xmm13
  12009. vpxor %xmm12, %xmm10, %xmm10
  12010. vpxor %xmm14, %xmm13, %xmm0
  12011. vpxor %xmm9, %xmm10, %xmm7
  12012. vmovdqa %xmm7, 64(%rsp)
  12013. vmovdqa %xmm0, 80(%rsp)
  12014. # H ^ 7 and H ^ 8
  12015. vpclmulqdq $16, %xmm1, %xmm2, %xmm11
  12016. vpclmulqdq $0x01, %xmm1, %xmm2, %xmm10
  12017. vpclmulqdq $0x00, %xmm1, %xmm2, %xmm9
  12018. vpclmulqdq $0x11, %xmm1, %xmm2, %xmm12
  12019. vpclmulqdq $0x00, %xmm2, %xmm2, %xmm13
  12020. vpclmulqdq $0x11, %xmm2, %xmm2, %xmm14
  12021. vpxor %xmm10, %xmm11, %xmm11
  12022. vpslldq $8, %xmm11, %xmm10
  12023. vpsrldq $8, %xmm11, %xmm11
  12024. vpxor %xmm9, %xmm10, %xmm10
  12025. vpclmulqdq $16, %xmm3, %xmm13, %xmm8
  12026. vpclmulqdq $16, %xmm3, %xmm10, %xmm9
  12027. vpshufd $0x4e, %xmm10, %xmm10
  12028. vpshufd $0x4e, %xmm13, %xmm13
  12029. vpxor %xmm9, %xmm10, %xmm10
  12030. vpxor %xmm8, %xmm13, %xmm13
  12031. vpclmulqdq $16, %xmm3, %xmm10, %xmm9
  12032. vpclmulqdq $16, %xmm3, %xmm13, %xmm8
  12033. vpshufd $0x4e, %xmm10, %xmm10
  12034. vpshufd $0x4e, %xmm13, %xmm13
  12035. vpxor %xmm11, %xmm12, %xmm12
  12036. vpxor %xmm8, %xmm13, %xmm13
  12037. vpxor %xmm12, %xmm10, %xmm10
  12038. vpxor %xmm14, %xmm13, %xmm0
  12039. vpxor %xmm9, %xmm10, %xmm7
  12040. vmovdqa %xmm7, 96(%rsp)
  12041. vmovdqa %xmm0, 112(%rsp)
  12042. # First 128 bytes of input
  12043. # aesenc_128
  12044. # aesenc_ctr
  12045. vmovdqa 128(%rsp), %xmm0
  12046. vmovdqa L_avx2_aes_gcm_bswap_epi64(%rip), %xmm1
  12047. vpaddd L_avx2_aes_gcm_one(%rip), %xmm0, %xmm9
  12048. vpshufb %xmm1, %xmm0, %xmm8
  12049. vpaddd L_avx2_aes_gcm_two(%rip), %xmm0, %xmm10
  12050. vpshufb %xmm1, %xmm9, %xmm9
  12051. vpaddd L_avx2_aes_gcm_three(%rip), %xmm0, %xmm11
  12052. vpshufb %xmm1, %xmm10, %xmm10
  12053. vpaddd L_avx2_aes_gcm_four(%rip), %xmm0, %xmm12
  12054. vpshufb %xmm1, %xmm11, %xmm11
  12055. vpaddd L_avx2_aes_gcm_five(%rip), %xmm0, %xmm13
  12056. vpshufb %xmm1, %xmm12, %xmm12
  12057. vpaddd L_avx2_aes_gcm_six(%rip), %xmm0, %xmm14
  12058. vpshufb %xmm1, %xmm13, %xmm13
  12059. vpaddd L_avx2_aes_gcm_seven(%rip), %xmm0, %xmm15
  12060. vpshufb %xmm1, %xmm14, %xmm14
  12061. vpaddd L_avx2_aes_gcm_eight(%rip), %xmm0, %xmm0
  12062. vpshufb %xmm1, %xmm15, %xmm15
  12063. # aesenc_xor
  12064. vmovdqa (%rsi), %xmm7
  12065. vmovdqa %xmm0, 128(%rsp)
  12066. vpxor %xmm7, %xmm8, %xmm8
  12067. vpxor %xmm7, %xmm9, %xmm9
  12068. vpxor %xmm7, %xmm10, %xmm10
  12069. vpxor %xmm7, %xmm11, %xmm11
  12070. vpxor %xmm7, %xmm12, %xmm12
  12071. vpxor %xmm7, %xmm13, %xmm13
  12072. vpxor %xmm7, %xmm14, %xmm14
  12073. vpxor %xmm7, %xmm15, %xmm15
  12074. vmovdqa 16(%rsi), %xmm7
  12075. vaesenc %xmm7, %xmm8, %xmm8
  12076. vaesenc %xmm7, %xmm9, %xmm9
  12077. vaesenc %xmm7, %xmm10, %xmm10
  12078. vaesenc %xmm7, %xmm11, %xmm11
  12079. vaesenc %xmm7, %xmm12, %xmm12
  12080. vaesenc %xmm7, %xmm13, %xmm13
  12081. vaesenc %xmm7, %xmm14, %xmm14
  12082. vaesenc %xmm7, %xmm15, %xmm15
  12083. vmovdqa 32(%rsi), %xmm7
  12084. vaesenc %xmm7, %xmm8, %xmm8
  12085. vaesenc %xmm7, %xmm9, %xmm9
  12086. vaesenc %xmm7, %xmm10, %xmm10
  12087. vaesenc %xmm7, %xmm11, %xmm11
  12088. vaesenc %xmm7, %xmm12, %xmm12
  12089. vaesenc %xmm7, %xmm13, %xmm13
  12090. vaesenc %xmm7, %xmm14, %xmm14
  12091. vaesenc %xmm7, %xmm15, %xmm15
  12092. vmovdqa 48(%rsi), %xmm7
  12093. vaesenc %xmm7, %xmm8, %xmm8
  12094. vaesenc %xmm7, %xmm9, %xmm9
  12095. vaesenc %xmm7, %xmm10, %xmm10
  12096. vaesenc %xmm7, %xmm11, %xmm11
  12097. vaesenc %xmm7, %xmm12, %xmm12
  12098. vaesenc %xmm7, %xmm13, %xmm13
  12099. vaesenc %xmm7, %xmm14, %xmm14
  12100. vaesenc %xmm7, %xmm15, %xmm15
  12101. vmovdqa 64(%rsi), %xmm7
  12102. vaesenc %xmm7, %xmm8, %xmm8
  12103. vaesenc %xmm7, %xmm9, %xmm9
  12104. vaesenc %xmm7, %xmm10, %xmm10
  12105. vaesenc %xmm7, %xmm11, %xmm11
  12106. vaesenc %xmm7, %xmm12, %xmm12
  12107. vaesenc %xmm7, %xmm13, %xmm13
  12108. vaesenc %xmm7, %xmm14, %xmm14
  12109. vaesenc %xmm7, %xmm15, %xmm15
  12110. vmovdqa 80(%rsi), %xmm7
  12111. vaesenc %xmm7, %xmm8, %xmm8
  12112. vaesenc %xmm7, %xmm9, %xmm9
  12113. vaesenc %xmm7, %xmm10, %xmm10
  12114. vaesenc %xmm7, %xmm11, %xmm11
  12115. vaesenc %xmm7, %xmm12, %xmm12
  12116. vaesenc %xmm7, %xmm13, %xmm13
  12117. vaesenc %xmm7, %xmm14, %xmm14
  12118. vaesenc %xmm7, %xmm15, %xmm15
  12119. vmovdqa 96(%rsi), %xmm7
  12120. vaesenc %xmm7, %xmm8, %xmm8
  12121. vaesenc %xmm7, %xmm9, %xmm9
  12122. vaesenc %xmm7, %xmm10, %xmm10
  12123. vaesenc %xmm7, %xmm11, %xmm11
  12124. vaesenc %xmm7, %xmm12, %xmm12
  12125. vaesenc %xmm7, %xmm13, %xmm13
  12126. vaesenc %xmm7, %xmm14, %xmm14
  12127. vaesenc %xmm7, %xmm15, %xmm15
  12128. vmovdqa 112(%rsi), %xmm7
  12129. vaesenc %xmm7, %xmm8, %xmm8
  12130. vaesenc %xmm7, %xmm9, %xmm9
  12131. vaesenc %xmm7, %xmm10, %xmm10
  12132. vaesenc %xmm7, %xmm11, %xmm11
  12133. vaesenc %xmm7, %xmm12, %xmm12
  12134. vaesenc %xmm7, %xmm13, %xmm13
  12135. vaesenc %xmm7, %xmm14, %xmm14
  12136. vaesenc %xmm7, %xmm15, %xmm15
  12137. vmovdqa 128(%rsi), %xmm7
  12138. vaesenc %xmm7, %xmm8, %xmm8
  12139. vaesenc %xmm7, %xmm9, %xmm9
  12140. vaesenc %xmm7, %xmm10, %xmm10
  12141. vaesenc %xmm7, %xmm11, %xmm11
  12142. vaesenc %xmm7, %xmm12, %xmm12
  12143. vaesenc %xmm7, %xmm13, %xmm13
  12144. vaesenc %xmm7, %xmm14, %xmm14
  12145. vaesenc %xmm7, %xmm15, %xmm15
  12146. vmovdqa 144(%rsi), %xmm7
  12147. vaesenc %xmm7, %xmm8, %xmm8
  12148. vaesenc %xmm7, %xmm9, %xmm9
  12149. vaesenc %xmm7, %xmm10, %xmm10
  12150. vaesenc %xmm7, %xmm11, %xmm11
  12151. vaesenc %xmm7, %xmm12, %xmm12
  12152. vaesenc %xmm7, %xmm13, %xmm13
  12153. vaesenc %xmm7, %xmm14, %xmm14
  12154. vaesenc %xmm7, %xmm15, %xmm15
  12155. cmpl $11, %r9d
  12156. vmovdqa 160(%rsi), %xmm7
  12157. jl L_AES_GCM_encrypt_avx2_aesenc_128_enc_done
  12158. vaesenc %xmm7, %xmm8, %xmm8
  12159. vaesenc %xmm7, %xmm9, %xmm9
  12160. vaesenc %xmm7, %xmm10, %xmm10
  12161. vaesenc %xmm7, %xmm11, %xmm11
  12162. vaesenc %xmm7, %xmm12, %xmm12
  12163. vaesenc %xmm7, %xmm13, %xmm13
  12164. vaesenc %xmm7, %xmm14, %xmm14
  12165. vaesenc %xmm7, %xmm15, %xmm15
  12166. vmovdqa 176(%rsi), %xmm7
  12167. vaesenc %xmm7, %xmm8, %xmm8
  12168. vaesenc %xmm7, %xmm9, %xmm9
  12169. vaesenc %xmm7, %xmm10, %xmm10
  12170. vaesenc %xmm7, %xmm11, %xmm11
  12171. vaesenc %xmm7, %xmm12, %xmm12
  12172. vaesenc %xmm7, %xmm13, %xmm13
  12173. vaesenc %xmm7, %xmm14, %xmm14
  12174. vaesenc %xmm7, %xmm15, %xmm15
  12175. cmpl $13, %r9d
  12176. vmovdqa 192(%rsi), %xmm7
  12177. jl L_AES_GCM_encrypt_avx2_aesenc_128_enc_done
  12178. vaesenc %xmm7, %xmm8, %xmm8
  12179. vaesenc %xmm7, %xmm9, %xmm9
  12180. vaesenc %xmm7, %xmm10, %xmm10
  12181. vaesenc %xmm7, %xmm11, %xmm11
  12182. vaesenc %xmm7, %xmm12, %xmm12
  12183. vaesenc %xmm7, %xmm13, %xmm13
  12184. vaesenc %xmm7, %xmm14, %xmm14
  12185. vaesenc %xmm7, %xmm15, %xmm15
  12186. vmovdqa 208(%rsi), %xmm7
  12187. vaesenc %xmm7, %xmm8, %xmm8
  12188. vaesenc %xmm7, %xmm9, %xmm9
  12189. vaesenc %xmm7, %xmm10, %xmm10
  12190. vaesenc %xmm7, %xmm11, %xmm11
  12191. vaesenc %xmm7, %xmm12, %xmm12
  12192. vaesenc %xmm7, %xmm13, %xmm13
  12193. vaesenc %xmm7, %xmm14, %xmm14
  12194. vaesenc %xmm7, %xmm15, %xmm15
  12195. vmovdqa 224(%rsi), %xmm7
  12196. L_AES_GCM_encrypt_avx2_aesenc_128_enc_done:
  12197. # aesenc_last
  12198. vaesenclast %xmm7, %xmm8, %xmm8
  12199. vaesenclast %xmm7, %xmm9, %xmm9
  12200. vaesenclast %xmm7, %xmm10, %xmm10
  12201. vaesenclast %xmm7, %xmm11, %xmm11
  12202. vmovdqu (%rdi), %xmm0
  12203. vmovdqu 16(%rdi), %xmm1
  12204. vmovdqu 32(%rdi), %xmm2
  12205. vmovdqu 48(%rdi), %xmm3
  12206. vpxor %xmm0, %xmm8, %xmm8
  12207. vpxor %xmm1, %xmm9, %xmm9
  12208. vpxor %xmm2, %xmm10, %xmm10
  12209. vpxor %xmm3, %xmm11, %xmm11
  12210. vmovdqu %xmm8, (%r8)
  12211. vmovdqu %xmm9, 16(%r8)
  12212. vmovdqu %xmm10, 32(%r8)
  12213. vmovdqu %xmm11, 48(%r8)
  12214. vaesenclast %xmm7, %xmm12, %xmm12
  12215. vaesenclast %xmm7, %xmm13, %xmm13
  12216. vaesenclast %xmm7, %xmm14, %xmm14
  12217. vaesenclast %xmm7, %xmm15, %xmm15
  12218. vmovdqu 64(%rdi), %xmm0
  12219. vmovdqu 80(%rdi), %xmm1
  12220. vmovdqu 96(%rdi), %xmm2
  12221. vmovdqu 112(%rdi), %xmm3
  12222. vpxor %xmm0, %xmm12, %xmm12
  12223. vpxor %xmm1, %xmm13, %xmm13
  12224. vpxor %xmm2, %xmm14, %xmm14
  12225. vpxor %xmm3, %xmm15, %xmm15
  12226. vmovdqu %xmm12, 64(%r8)
  12227. vmovdqu %xmm13, 80(%r8)
  12228. vmovdqu %xmm14, 96(%r8)
  12229. vmovdqu %xmm15, 112(%r8)
  12230. cmpl $0x80, %r13d
  12231. movl $0x80, %ebx
  12232. jle L_AES_GCM_encrypt_avx2_end_128
  12233. # More 128 bytes of input
  12234. L_AES_GCM_encrypt_avx2_ghash_128:
  12235. # aesenc_128_ghash
  12236. leaq (%rdi,%rbx,1), %rcx
  12237. leaq (%r8,%rbx,1), %rdx
  12238. # aesenc_ctr
  12239. vmovdqa 128(%rsp), %xmm0
  12240. vmovdqa L_avx2_aes_gcm_bswap_epi64(%rip), %xmm1
  12241. vpaddd L_avx2_aes_gcm_one(%rip), %xmm0, %xmm9
  12242. vpshufb %xmm1, %xmm0, %xmm8
  12243. vpaddd L_avx2_aes_gcm_two(%rip), %xmm0, %xmm10
  12244. vpshufb %xmm1, %xmm9, %xmm9
  12245. vpaddd L_avx2_aes_gcm_three(%rip), %xmm0, %xmm11
  12246. vpshufb %xmm1, %xmm10, %xmm10
  12247. vpaddd L_avx2_aes_gcm_four(%rip), %xmm0, %xmm12
  12248. vpshufb %xmm1, %xmm11, %xmm11
  12249. vpaddd L_avx2_aes_gcm_five(%rip), %xmm0, %xmm13
  12250. vpshufb %xmm1, %xmm12, %xmm12
  12251. vpaddd L_avx2_aes_gcm_six(%rip), %xmm0, %xmm14
  12252. vpshufb %xmm1, %xmm13, %xmm13
  12253. vpaddd L_avx2_aes_gcm_seven(%rip), %xmm0, %xmm15
  12254. vpshufb %xmm1, %xmm14, %xmm14
  12255. vpaddd L_avx2_aes_gcm_eight(%rip), %xmm0, %xmm0
  12256. vpshufb %xmm1, %xmm15, %xmm15
  12257. # aesenc_xor
  12258. vmovdqa (%rsi), %xmm7
  12259. vmovdqa %xmm0, 128(%rsp)
  12260. vpxor %xmm7, %xmm8, %xmm8
  12261. vpxor %xmm7, %xmm9, %xmm9
  12262. vpxor %xmm7, %xmm10, %xmm10
  12263. vpxor %xmm7, %xmm11, %xmm11
  12264. vpxor %xmm7, %xmm12, %xmm12
  12265. vpxor %xmm7, %xmm13, %xmm13
  12266. vpxor %xmm7, %xmm14, %xmm14
  12267. vpxor %xmm7, %xmm15, %xmm15
  12268. # aesenc_pclmul_1
  12269. vmovdqu -128(%rdx), %xmm1
  12270. vmovdqu 16(%rsi), %xmm0
  12271. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
  12272. vmovdqa 112(%rsp), %xmm2
  12273. vpxor %xmm6, %xmm1, %xmm1
  12274. vpclmulqdq $16, %xmm2, %xmm1, %xmm5
  12275. vpclmulqdq $0x01, %xmm2, %xmm1, %xmm3
  12276. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm6
  12277. vpclmulqdq $0x11, %xmm2, %xmm1, %xmm7
  12278. vaesenc %xmm0, %xmm8, %xmm8
  12279. vaesenc %xmm0, %xmm9, %xmm9
  12280. vaesenc %xmm0, %xmm10, %xmm10
  12281. vaesenc %xmm0, %xmm11, %xmm11
  12282. vaesenc %xmm0, %xmm12, %xmm12
  12283. vaesenc %xmm0, %xmm13, %xmm13
  12284. vaesenc %xmm0, %xmm14, %xmm14
  12285. vaesenc %xmm0, %xmm15, %xmm15
  12286. # aesenc_pclmul_2
  12287. vmovdqu -112(%rdx), %xmm1
  12288. vmovdqa 96(%rsp), %xmm0
  12289. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
  12290. vpxor %xmm3, %xmm5, %xmm5
  12291. vpclmulqdq $16, %xmm0, %xmm1, %xmm2
  12292. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
  12293. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
  12294. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
  12295. vmovdqu 32(%rsi), %xmm0
  12296. vpxor %xmm1, %xmm7, %xmm7
  12297. vaesenc %xmm0, %xmm8, %xmm8
  12298. vaesenc %xmm0, %xmm9, %xmm9
  12299. vaesenc %xmm0, %xmm10, %xmm10
  12300. vaesenc %xmm0, %xmm11, %xmm11
  12301. vaesenc %xmm0, %xmm12, %xmm12
  12302. vaesenc %xmm0, %xmm13, %xmm13
  12303. vaesenc %xmm0, %xmm14, %xmm14
  12304. vaesenc %xmm0, %xmm15, %xmm15
  12305. # aesenc_pclmul_n
  12306. vmovdqu -96(%rdx), %xmm1
  12307. vmovdqa 80(%rsp), %xmm0
  12308. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
  12309. vpxor %xmm2, %xmm5, %xmm5
  12310. vpclmulqdq $16, %xmm0, %xmm1, %xmm2
  12311. vpxor %xmm3, %xmm5, %xmm5
  12312. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
  12313. vpxor %xmm4, %xmm6, %xmm6
  12314. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
  12315. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
  12316. vmovdqu 48(%rsi), %xmm0
  12317. vpxor %xmm1, %xmm7, %xmm7
  12318. vaesenc %xmm0, %xmm8, %xmm8
  12319. vaesenc %xmm0, %xmm9, %xmm9
  12320. vaesenc %xmm0, %xmm10, %xmm10
  12321. vaesenc %xmm0, %xmm11, %xmm11
  12322. vaesenc %xmm0, %xmm12, %xmm12
  12323. vaesenc %xmm0, %xmm13, %xmm13
  12324. vaesenc %xmm0, %xmm14, %xmm14
  12325. vaesenc %xmm0, %xmm15, %xmm15
  12326. # aesenc_pclmul_n
  12327. vmovdqu -80(%rdx), %xmm1
  12328. vmovdqa 64(%rsp), %xmm0
  12329. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
  12330. vpxor %xmm2, %xmm5, %xmm5
  12331. vpclmulqdq $16, %xmm0, %xmm1, %xmm2
  12332. vpxor %xmm3, %xmm5, %xmm5
  12333. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
  12334. vpxor %xmm4, %xmm6, %xmm6
  12335. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
  12336. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
  12337. vmovdqu 64(%rsi), %xmm0
  12338. vpxor %xmm1, %xmm7, %xmm7
  12339. vaesenc %xmm0, %xmm8, %xmm8
  12340. vaesenc %xmm0, %xmm9, %xmm9
  12341. vaesenc %xmm0, %xmm10, %xmm10
  12342. vaesenc %xmm0, %xmm11, %xmm11
  12343. vaesenc %xmm0, %xmm12, %xmm12
  12344. vaesenc %xmm0, %xmm13, %xmm13
  12345. vaesenc %xmm0, %xmm14, %xmm14
  12346. vaesenc %xmm0, %xmm15, %xmm15
  12347. # aesenc_pclmul_n
  12348. vmovdqu -64(%rdx), %xmm1
  12349. vmovdqa 48(%rsp), %xmm0
  12350. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
  12351. vpxor %xmm2, %xmm5, %xmm5
  12352. vpclmulqdq $16, %xmm0, %xmm1, %xmm2
  12353. vpxor %xmm3, %xmm5, %xmm5
  12354. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
  12355. vpxor %xmm4, %xmm6, %xmm6
  12356. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
  12357. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
  12358. vmovdqu 80(%rsi), %xmm0
  12359. vpxor %xmm1, %xmm7, %xmm7
  12360. vaesenc %xmm0, %xmm8, %xmm8
  12361. vaesenc %xmm0, %xmm9, %xmm9
  12362. vaesenc %xmm0, %xmm10, %xmm10
  12363. vaesenc %xmm0, %xmm11, %xmm11
  12364. vaesenc %xmm0, %xmm12, %xmm12
  12365. vaesenc %xmm0, %xmm13, %xmm13
  12366. vaesenc %xmm0, %xmm14, %xmm14
  12367. vaesenc %xmm0, %xmm15, %xmm15
  12368. # aesenc_pclmul_n
  12369. vmovdqu -48(%rdx), %xmm1
  12370. vmovdqa 32(%rsp), %xmm0
  12371. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
  12372. vpxor %xmm2, %xmm5, %xmm5
  12373. vpclmulqdq $16, %xmm0, %xmm1, %xmm2
  12374. vpxor %xmm3, %xmm5, %xmm5
  12375. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
  12376. vpxor %xmm4, %xmm6, %xmm6
  12377. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
  12378. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
  12379. vmovdqu 96(%rsi), %xmm0
  12380. vpxor %xmm1, %xmm7, %xmm7
  12381. vaesenc %xmm0, %xmm8, %xmm8
  12382. vaesenc %xmm0, %xmm9, %xmm9
  12383. vaesenc %xmm0, %xmm10, %xmm10
  12384. vaesenc %xmm0, %xmm11, %xmm11
  12385. vaesenc %xmm0, %xmm12, %xmm12
  12386. vaesenc %xmm0, %xmm13, %xmm13
  12387. vaesenc %xmm0, %xmm14, %xmm14
  12388. vaesenc %xmm0, %xmm15, %xmm15
  12389. # aesenc_pclmul_n
  12390. vmovdqu -32(%rdx), %xmm1
  12391. vmovdqa 16(%rsp), %xmm0
  12392. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
  12393. vpxor %xmm2, %xmm5, %xmm5
  12394. vpclmulqdq $16, %xmm0, %xmm1, %xmm2
  12395. vpxor %xmm3, %xmm5, %xmm5
  12396. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
  12397. vpxor %xmm4, %xmm6, %xmm6
  12398. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
  12399. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
  12400. vmovdqu 112(%rsi), %xmm0
  12401. vpxor %xmm1, %xmm7, %xmm7
  12402. vaesenc %xmm0, %xmm8, %xmm8
  12403. vaesenc %xmm0, %xmm9, %xmm9
  12404. vaesenc %xmm0, %xmm10, %xmm10
  12405. vaesenc %xmm0, %xmm11, %xmm11
  12406. vaesenc %xmm0, %xmm12, %xmm12
  12407. vaesenc %xmm0, %xmm13, %xmm13
  12408. vaesenc %xmm0, %xmm14, %xmm14
  12409. vaesenc %xmm0, %xmm15, %xmm15
  12410. # aesenc_pclmul_n
  12411. vmovdqu -16(%rdx), %xmm1
  12412. vmovdqa (%rsp), %xmm0
  12413. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
  12414. vpxor %xmm2, %xmm5, %xmm5
  12415. vpclmulqdq $16, %xmm0, %xmm1, %xmm2
  12416. vpxor %xmm3, %xmm5, %xmm5
  12417. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
  12418. vpxor %xmm4, %xmm6, %xmm6
  12419. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
  12420. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
  12421. vmovdqu 128(%rsi), %xmm0
  12422. vpxor %xmm1, %xmm7, %xmm7
  12423. vaesenc %xmm0, %xmm8, %xmm8
  12424. vaesenc %xmm0, %xmm9, %xmm9
  12425. vaesenc %xmm0, %xmm10, %xmm10
  12426. vaesenc %xmm0, %xmm11, %xmm11
  12427. vaesenc %xmm0, %xmm12, %xmm12
  12428. vaesenc %xmm0, %xmm13, %xmm13
  12429. vaesenc %xmm0, %xmm14, %xmm14
  12430. vaesenc %xmm0, %xmm15, %xmm15
  12431. # aesenc_pclmul_l
  12432. vpxor %xmm2, %xmm5, %xmm5
  12433. vpxor %xmm4, %xmm6, %xmm6
  12434. vpxor %xmm3, %xmm5, %xmm5
  12435. vpslldq $8, %xmm5, %xmm1
  12436. vpsrldq $8, %xmm5, %xmm5
  12437. vmovdqa 144(%rsi), %xmm4
  12438. vmovdqa L_avx2_aes_gcm_mod2_128(%rip), %xmm0
  12439. vaesenc %xmm4, %xmm8, %xmm8
  12440. vpxor %xmm1, %xmm6, %xmm6
  12441. vpxor %xmm5, %xmm7, %xmm7
  12442. vpclmulqdq $16, %xmm0, %xmm6, %xmm3
  12443. vaesenc %xmm4, %xmm9, %xmm9
  12444. vaesenc %xmm4, %xmm10, %xmm10
  12445. vaesenc %xmm4, %xmm11, %xmm11
  12446. vpshufd $0x4e, %xmm6, %xmm6
  12447. vpxor %xmm3, %xmm6, %xmm6
  12448. vpclmulqdq $16, %xmm0, %xmm6, %xmm3
  12449. vaesenc %xmm4, %xmm12, %xmm12
  12450. vaesenc %xmm4, %xmm13, %xmm13
  12451. vaesenc %xmm4, %xmm14, %xmm14
  12452. vpshufd $0x4e, %xmm6, %xmm6
  12453. vpxor %xmm3, %xmm6, %xmm6
  12454. vpxor %xmm7, %xmm6, %xmm6
  12455. vaesenc %xmm4, %xmm15, %xmm15
  12456. cmpl $11, %r9d
  12457. vmovdqa 160(%rsi), %xmm7
  12458. jl L_AES_GCM_encrypt_avx2_aesenc_128_ghash_avx_done
  12459. vaesenc %xmm7, %xmm8, %xmm8
  12460. vaesenc %xmm7, %xmm9, %xmm9
  12461. vaesenc %xmm7, %xmm10, %xmm10
  12462. vaesenc %xmm7, %xmm11, %xmm11
  12463. vaesenc %xmm7, %xmm12, %xmm12
  12464. vaesenc %xmm7, %xmm13, %xmm13
  12465. vaesenc %xmm7, %xmm14, %xmm14
  12466. vaesenc %xmm7, %xmm15, %xmm15
  12467. vmovdqa 176(%rsi), %xmm7
  12468. vaesenc %xmm7, %xmm8, %xmm8
  12469. vaesenc %xmm7, %xmm9, %xmm9
  12470. vaesenc %xmm7, %xmm10, %xmm10
  12471. vaesenc %xmm7, %xmm11, %xmm11
  12472. vaesenc %xmm7, %xmm12, %xmm12
  12473. vaesenc %xmm7, %xmm13, %xmm13
  12474. vaesenc %xmm7, %xmm14, %xmm14
  12475. vaesenc %xmm7, %xmm15, %xmm15
  12476. cmpl $13, %r9d
  12477. vmovdqa 192(%rsi), %xmm7
  12478. jl L_AES_GCM_encrypt_avx2_aesenc_128_ghash_avx_done
  12479. vaesenc %xmm7, %xmm8, %xmm8
  12480. vaesenc %xmm7, %xmm9, %xmm9
  12481. vaesenc %xmm7, %xmm10, %xmm10
  12482. vaesenc %xmm7, %xmm11, %xmm11
  12483. vaesenc %xmm7, %xmm12, %xmm12
  12484. vaesenc %xmm7, %xmm13, %xmm13
  12485. vaesenc %xmm7, %xmm14, %xmm14
  12486. vaesenc %xmm7, %xmm15, %xmm15
  12487. vmovdqa 208(%rsi), %xmm7
  12488. vaesenc %xmm7, %xmm8, %xmm8
  12489. vaesenc %xmm7, %xmm9, %xmm9
  12490. vaesenc %xmm7, %xmm10, %xmm10
  12491. vaesenc %xmm7, %xmm11, %xmm11
  12492. vaesenc %xmm7, %xmm12, %xmm12
  12493. vaesenc %xmm7, %xmm13, %xmm13
  12494. vaesenc %xmm7, %xmm14, %xmm14
  12495. vaesenc %xmm7, %xmm15, %xmm15
  12496. vmovdqa 224(%rsi), %xmm7
  12497. L_AES_GCM_encrypt_avx2_aesenc_128_ghash_avx_done:
  12498. # aesenc_last
  12499. vaesenclast %xmm7, %xmm8, %xmm8
  12500. vaesenclast %xmm7, %xmm9, %xmm9
  12501. vaesenclast %xmm7, %xmm10, %xmm10
  12502. vaesenclast %xmm7, %xmm11, %xmm11
  12503. vmovdqu (%rcx), %xmm0
  12504. vmovdqu 16(%rcx), %xmm1
  12505. vmovdqu 32(%rcx), %xmm2
  12506. vmovdqu 48(%rcx), %xmm3
  12507. vpxor %xmm0, %xmm8, %xmm8
  12508. vpxor %xmm1, %xmm9, %xmm9
  12509. vpxor %xmm2, %xmm10, %xmm10
  12510. vpxor %xmm3, %xmm11, %xmm11
  12511. vmovdqu %xmm8, (%rdx)
  12512. vmovdqu %xmm9, 16(%rdx)
  12513. vmovdqu %xmm10, 32(%rdx)
  12514. vmovdqu %xmm11, 48(%rdx)
  12515. vaesenclast %xmm7, %xmm12, %xmm12
  12516. vaesenclast %xmm7, %xmm13, %xmm13
  12517. vaesenclast %xmm7, %xmm14, %xmm14
  12518. vaesenclast %xmm7, %xmm15, %xmm15
  12519. vmovdqu 64(%rcx), %xmm0
  12520. vmovdqu 80(%rcx), %xmm1
  12521. vmovdqu 96(%rcx), %xmm2
  12522. vmovdqu 112(%rcx), %xmm3
  12523. vpxor %xmm0, %xmm12, %xmm12
  12524. vpxor %xmm1, %xmm13, %xmm13
  12525. vpxor %xmm2, %xmm14, %xmm14
  12526. vpxor %xmm3, %xmm15, %xmm15
  12527. vmovdqu %xmm12, 64(%rdx)
  12528. vmovdqu %xmm13, 80(%rdx)
  12529. vmovdqu %xmm14, 96(%rdx)
  12530. vmovdqu %xmm15, 112(%rdx)
  12531. # aesenc_128_ghash - end
  12532. addl $0x80, %ebx
  12533. cmpl %r13d, %ebx
  12534. jl L_AES_GCM_encrypt_avx2_ghash_128
  12535. L_AES_GCM_encrypt_avx2_end_128:
  12536. vmovdqa L_avx2_aes_gcm_bswap_mask(%rip), %xmm4
  12537. vpshufb %xmm4, %xmm8, %xmm8
  12538. vpshufb %xmm4, %xmm9, %xmm9
  12539. vpshufb %xmm4, %xmm10, %xmm10
  12540. vpshufb %xmm4, %xmm11, %xmm11
  12541. vpshufb %xmm4, %xmm12, %xmm12
  12542. vpshufb %xmm4, %xmm13, %xmm13
  12543. vpshufb %xmm4, %xmm14, %xmm14
  12544. vpshufb %xmm4, %xmm15, %xmm15
  12545. vpxor %xmm6, %xmm8, %xmm8
  12546. vmovdqu (%rsp), %xmm7
  12547. vpclmulqdq $16, %xmm15, %xmm7, %xmm5
  12548. vpclmulqdq $0x01, %xmm15, %xmm7, %xmm1
  12549. vpclmulqdq $0x00, %xmm15, %xmm7, %xmm4
  12550. vpclmulqdq $0x11, %xmm15, %xmm7, %xmm6
  12551. vpxor %xmm1, %xmm5, %xmm5
  12552. vmovdqu 16(%rsp), %xmm7
  12553. vpclmulqdq $16, %xmm14, %xmm7, %xmm2
  12554. vpclmulqdq $0x01, %xmm14, %xmm7, %xmm1
  12555. vpclmulqdq $0x00, %xmm14, %xmm7, %xmm0
  12556. vpclmulqdq $0x11, %xmm14, %xmm7, %xmm3
  12557. vpxor %xmm1, %xmm2, %xmm2
  12558. vpxor %xmm3, %xmm6, %xmm6
  12559. vpxor %xmm2, %xmm5, %xmm5
  12560. vpxor %xmm0, %xmm4, %xmm4
  12561. vmovdqu 32(%rsp), %xmm15
  12562. vmovdqu 48(%rsp), %xmm7
  12563. vpclmulqdq $16, %xmm13, %xmm15, %xmm2
  12564. vpclmulqdq $0x01, %xmm13, %xmm15, %xmm1
  12565. vpclmulqdq $0x00, %xmm13, %xmm15, %xmm0
  12566. vpclmulqdq $0x11, %xmm13, %xmm15, %xmm3
  12567. vpxor %xmm1, %xmm2, %xmm2
  12568. vpxor %xmm3, %xmm6, %xmm6
  12569. vpxor %xmm2, %xmm5, %xmm5
  12570. vpxor %xmm0, %xmm4, %xmm4
  12571. vpclmulqdq $16, %xmm12, %xmm7, %xmm2
  12572. vpclmulqdq $0x01, %xmm12, %xmm7, %xmm1
  12573. vpclmulqdq $0x00, %xmm12, %xmm7, %xmm0
  12574. vpclmulqdq $0x11, %xmm12, %xmm7, %xmm3
  12575. vpxor %xmm1, %xmm2, %xmm2
  12576. vpxor %xmm3, %xmm6, %xmm6
  12577. vpxor %xmm2, %xmm5, %xmm5
  12578. vpxor %xmm0, %xmm4, %xmm4
  12579. vmovdqu 64(%rsp), %xmm15
  12580. vmovdqu 80(%rsp), %xmm7
  12581. vpclmulqdq $16, %xmm11, %xmm15, %xmm2
  12582. vpclmulqdq $0x01, %xmm11, %xmm15, %xmm1
  12583. vpclmulqdq $0x00, %xmm11, %xmm15, %xmm0
  12584. vpclmulqdq $0x11, %xmm11, %xmm15, %xmm3
  12585. vpxor %xmm1, %xmm2, %xmm2
  12586. vpxor %xmm3, %xmm6, %xmm6
  12587. vpxor %xmm2, %xmm5, %xmm5
  12588. vpxor %xmm0, %xmm4, %xmm4
  12589. vpclmulqdq $16, %xmm10, %xmm7, %xmm2
  12590. vpclmulqdq $0x01, %xmm10, %xmm7, %xmm1
  12591. vpclmulqdq $0x00, %xmm10, %xmm7, %xmm0
  12592. vpclmulqdq $0x11, %xmm10, %xmm7, %xmm3
  12593. vpxor %xmm1, %xmm2, %xmm2
  12594. vpxor %xmm3, %xmm6, %xmm6
  12595. vpxor %xmm2, %xmm5, %xmm5
  12596. vpxor %xmm0, %xmm4, %xmm4
  12597. vmovdqu 96(%rsp), %xmm15
  12598. vmovdqu 112(%rsp), %xmm7
  12599. vpclmulqdq $16, %xmm9, %xmm15, %xmm2
  12600. vpclmulqdq $0x01, %xmm9, %xmm15, %xmm1
  12601. vpclmulqdq $0x00, %xmm9, %xmm15, %xmm0
  12602. vpclmulqdq $0x11, %xmm9, %xmm15, %xmm3
  12603. vpxor %xmm1, %xmm2, %xmm2
  12604. vpxor %xmm3, %xmm6, %xmm6
  12605. vpxor %xmm2, %xmm5, %xmm5
  12606. vpxor %xmm0, %xmm4, %xmm4
  12607. vpclmulqdq $16, %xmm8, %xmm7, %xmm2
  12608. vpclmulqdq $0x01, %xmm8, %xmm7, %xmm1
  12609. vpclmulqdq $0x00, %xmm8, %xmm7, %xmm0
  12610. vpclmulqdq $0x11, %xmm8, %xmm7, %xmm3
  12611. vpxor %xmm1, %xmm2, %xmm2
  12612. vpxor %xmm3, %xmm6, %xmm6
  12613. vpxor %xmm2, %xmm5, %xmm5
  12614. vpxor %xmm0, %xmm4, %xmm4
  12615. vpslldq $8, %xmm5, %xmm7
  12616. vpsrldq $8, %xmm5, %xmm5
  12617. vpxor %xmm7, %xmm4, %xmm4
  12618. vpxor %xmm5, %xmm6, %xmm6
  12619. # ghash_red
  12620. vmovdqa L_avx2_aes_gcm_mod2_128(%rip), %xmm2
  12621. vpclmulqdq $16, %xmm2, %xmm4, %xmm0
  12622. vpshufd $0x4e, %xmm4, %xmm1
  12623. vpxor %xmm0, %xmm1, %xmm1
  12624. vpclmulqdq $16, %xmm2, %xmm1, %xmm0
  12625. vpshufd $0x4e, %xmm1, %xmm1
  12626. vpxor %xmm0, %xmm1, %xmm1
  12627. vpxor %xmm1, %xmm6, %xmm6
  12628. vmovdqa (%rsp), %xmm5
  12629. vmovdqu 128(%rsp), %xmm4
  12630. vmovdqu 144(%rsp), %xmm15
  12631. L_AES_GCM_encrypt_avx2_done_128:
  12632. cmpl %r10d, %ebx
  12633. je L_AES_GCM_encrypt_avx2_done_enc
  12634. movl %r10d, %r13d
  12635. andl $0xfffffff0, %r13d
  12636. cmpl %r13d, %ebx
  12637. jge L_AES_GCM_encrypt_avx2_last_block_done
  12638. # aesenc_block
  12639. vmovdqa %xmm4, %xmm1
  12640. vpshufb L_avx2_aes_gcm_bswap_epi64(%rip), %xmm1, %xmm0
  12641. vpaddd L_avx2_aes_gcm_one(%rip), %xmm1, %xmm1
  12642. vpxor (%rsi), %xmm0, %xmm0
  12643. vmovdqa 16(%rsi), %xmm2
  12644. vaesenc %xmm2, %xmm0, %xmm0
  12645. vmovdqa 32(%rsi), %xmm2
  12646. vaesenc %xmm2, %xmm0, %xmm0
  12647. vmovdqa 48(%rsi), %xmm2
  12648. vaesenc %xmm2, %xmm0, %xmm0
  12649. vmovdqa 64(%rsi), %xmm2
  12650. vaesenc %xmm2, %xmm0, %xmm0
  12651. vmovdqa 80(%rsi), %xmm2
  12652. vaesenc %xmm2, %xmm0, %xmm0
  12653. vmovdqa 96(%rsi), %xmm2
  12654. vaesenc %xmm2, %xmm0, %xmm0
  12655. vmovdqa 112(%rsi), %xmm2
  12656. vaesenc %xmm2, %xmm0, %xmm0
  12657. vmovdqa 128(%rsi), %xmm2
  12658. vaesenc %xmm2, %xmm0, %xmm0
  12659. vmovdqa 144(%rsi), %xmm2
  12660. vaesenc %xmm2, %xmm0, %xmm0
  12661. vmovdqa %xmm1, %xmm4
  12662. cmpl $11, %r9d
  12663. vmovdqa 160(%rsi), %xmm1
  12664. jl L_AES_GCM_encrypt_avx2_aesenc_block_last
  12665. vaesenc %xmm1, %xmm0, %xmm0
  12666. vmovdqa 176(%rsi), %xmm2
  12667. vaesenc %xmm2, %xmm0, %xmm0
  12668. cmpl $13, %r9d
  12669. vmovdqa 192(%rsi), %xmm1
  12670. jl L_AES_GCM_encrypt_avx2_aesenc_block_last
  12671. vaesenc %xmm1, %xmm0, %xmm0
  12672. vmovdqa 208(%rsi), %xmm2
  12673. vaesenc %xmm2, %xmm0, %xmm0
  12674. vmovdqa 224(%rsi), %xmm1
  12675. L_AES_GCM_encrypt_avx2_aesenc_block_last:
  12676. vaesenclast %xmm1, %xmm0, %xmm0
  12677. vmovdqu (%rdi,%rbx,1), %xmm1
  12678. vpxor %xmm1, %xmm0, %xmm0
  12679. vmovdqu %xmm0, (%r8,%rbx,1)
  12680. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  12681. vpxor %xmm0, %xmm6, %xmm6
  12682. addl $16, %ebx
  12683. cmpl %r13d, %ebx
  12684. jge L_AES_GCM_encrypt_avx2_last_block_ghash
  12685. L_AES_GCM_encrypt_avx2_last_block_start:
  12686. vmovdqu (%rdi,%rbx,1), %xmm12
  12687. vpshufb L_avx2_aes_gcm_bswap_epi64(%rip), %xmm4, %xmm11
  12688. vpaddd L_avx2_aes_gcm_one(%rip), %xmm4, %xmm4
  12689. # aesenc_gfmul_sb
  12690. vpclmulqdq $0x01, %xmm5, %xmm6, %xmm2
  12691. vpclmulqdq $16, %xmm5, %xmm6, %xmm3
  12692. vpclmulqdq $0x00, %xmm5, %xmm6, %xmm1
  12693. vpclmulqdq $0x11, %xmm5, %xmm6, %xmm8
  12694. vpxor (%rsi), %xmm11, %xmm11
  12695. vaesenc 16(%rsi), %xmm11, %xmm11
  12696. vpxor %xmm2, %xmm3, %xmm3
  12697. vpslldq $8, %xmm3, %xmm2
  12698. vpsrldq $8, %xmm3, %xmm3
  12699. vaesenc 32(%rsi), %xmm11, %xmm11
  12700. vpxor %xmm1, %xmm2, %xmm2
  12701. vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm2, %xmm1
  12702. vaesenc 48(%rsi), %xmm11, %xmm11
  12703. vaesenc 64(%rsi), %xmm11, %xmm11
  12704. vaesenc 80(%rsi), %xmm11, %xmm11
  12705. vpshufd $0x4e, %xmm2, %xmm2
  12706. vpxor %xmm1, %xmm2, %xmm2
  12707. vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm2, %xmm1
  12708. vaesenc 96(%rsi), %xmm11, %xmm11
  12709. vaesenc 112(%rsi), %xmm11, %xmm11
  12710. vaesenc 128(%rsi), %xmm11, %xmm11
  12711. vpshufd $0x4e, %xmm2, %xmm2
  12712. vaesenc 144(%rsi), %xmm11, %xmm11
  12713. vpxor %xmm3, %xmm8, %xmm8
  12714. vpxor %xmm8, %xmm2, %xmm2
  12715. vmovdqa 160(%rsi), %xmm0
  12716. cmpl $11, %r9d
  12717. jl L_AES_GCM_encrypt_avx2_aesenc_gfmul_sb_last
  12718. vaesenc %xmm0, %xmm11, %xmm11
  12719. vaesenc 176(%rsi), %xmm11, %xmm11
  12720. vmovdqa 192(%rsi), %xmm0
  12721. cmpl $13, %r9d
  12722. jl L_AES_GCM_encrypt_avx2_aesenc_gfmul_sb_last
  12723. vaesenc %xmm0, %xmm11, %xmm11
  12724. vaesenc 208(%rsi), %xmm11, %xmm11
  12725. vmovdqa 224(%rsi), %xmm0
  12726. L_AES_GCM_encrypt_avx2_aesenc_gfmul_sb_last:
  12727. vaesenclast %xmm0, %xmm11, %xmm11
  12728. vpxor %xmm1, %xmm2, %xmm6
  12729. vpxor %xmm12, %xmm11, %xmm11
  12730. vmovdqu %xmm11, (%r8,%rbx,1)
  12731. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm11, %xmm11
  12732. vpxor %xmm11, %xmm6, %xmm6
  12733. addl $16, %ebx
  12734. cmpl %r13d, %ebx
  12735. jl L_AES_GCM_encrypt_avx2_last_block_start
  12736. L_AES_GCM_encrypt_avx2_last_block_ghash:
  12737. # ghash_gfmul_red
  12738. vpclmulqdq $16, %xmm5, %xmm6, %xmm10
  12739. vpclmulqdq $0x01, %xmm5, %xmm6, %xmm9
  12740. vpclmulqdq $0x00, %xmm5, %xmm6, %xmm8
  12741. vpxor %xmm9, %xmm10, %xmm10
  12742. vpslldq $8, %xmm10, %xmm9
  12743. vpsrldq $8, %xmm10, %xmm10
  12744. vpxor %xmm8, %xmm9, %xmm9
  12745. vpclmulqdq $0x11, %xmm5, %xmm6, %xmm6
  12746. vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm9, %xmm8
  12747. vpshufd $0x4e, %xmm9, %xmm9
  12748. vpxor %xmm8, %xmm9, %xmm9
  12749. vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm9, %xmm8
  12750. vpshufd $0x4e, %xmm9, %xmm9
  12751. vpxor %xmm10, %xmm6, %xmm6
  12752. vpxor %xmm9, %xmm6, %xmm6
  12753. vpxor %xmm8, %xmm6, %xmm6
  12754. L_AES_GCM_encrypt_avx2_last_block_done:
  12755. movl %r10d, %ecx
  12756. movl %r10d, %edx
  12757. andl $15, %ecx
  12758. jz L_AES_GCM_encrypt_avx2_done_enc
  12759. # aesenc_last15_enc
  12760. vpshufb L_avx2_aes_gcm_bswap_epi64(%rip), %xmm4, %xmm4
  12761. vpxor (%rsi), %xmm4, %xmm4
  12762. vaesenc 16(%rsi), %xmm4, %xmm4
  12763. vaesenc 32(%rsi), %xmm4, %xmm4
  12764. vaesenc 48(%rsi), %xmm4, %xmm4
  12765. vaesenc 64(%rsi), %xmm4, %xmm4
  12766. vaesenc 80(%rsi), %xmm4, %xmm4
  12767. vaesenc 96(%rsi), %xmm4, %xmm4
  12768. vaesenc 112(%rsi), %xmm4, %xmm4
  12769. vaesenc 128(%rsi), %xmm4, %xmm4
  12770. vaesenc 144(%rsi), %xmm4, %xmm4
  12771. cmpl $11, %r9d
  12772. vmovdqa 160(%rsi), %xmm0
  12773. jl L_AES_GCM_encrypt_avx2_aesenc_last15_enc_avx_aesenc_avx_last
  12774. vaesenc %xmm0, %xmm4, %xmm4
  12775. vaesenc 176(%rsi), %xmm4, %xmm4
  12776. cmpl $13, %r9d
  12777. vmovdqa 192(%rsi), %xmm0
  12778. jl L_AES_GCM_encrypt_avx2_aesenc_last15_enc_avx_aesenc_avx_last
  12779. vaesenc %xmm0, %xmm4, %xmm4
  12780. vaesenc 208(%rsi), %xmm4, %xmm4
  12781. vmovdqa 224(%rsi), %xmm0
  12782. L_AES_GCM_encrypt_avx2_aesenc_last15_enc_avx_aesenc_avx_last:
  12783. vaesenclast %xmm0, %xmm4, %xmm4
  12784. xorl %ecx, %ecx
  12785. vpxor %xmm0, %xmm0, %xmm0
  12786. vmovdqu %xmm4, (%rsp)
  12787. vmovdqu %xmm0, 16(%rsp)
  12788. L_AES_GCM_encrypt_avx2_aesenc_last15_enc_avx_loop:
  12789. movzbl (%rdi,%rbx,1), %r13d
  12790. xorb (%rsp,%rcx,1), %r13b
  12791. movb %r13b, 16(%rsp,%rcx,1)
  12792. movb %r13b, (%r8,%rbx,1)
  12793. incl %ebx
  12794. incl %ecx
  12795. cmpl %edx, %ebx
  12796. jl L_AES_GCM_encrypt_avx2_aesenc_last15_enc_avx_loop
  12797. L_AES_GCM_encrypt_avx2_aesenc_last15_enc_avx_finish_enc:
  12798. vmovdqu 16(%rsp), %xmm4
  12799. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm4, %xmm4
  12800. vpxor %xmm4, %xmm6, %xmm6
  12801. # ghash_gfmul_red
  12802. vpclmulqdq $16, %xmm5, %xmm6, %xmm2
  12803. vpclmulqdq $0x01, %xmm5, %xmm6, %xmm1
  12804. vpclmulqdq $0x00, %xmm5, %xmm6, %xmm0
  12805. vpxor %xmm1, %xmm2, %xmm2
  12806. vpslldq $8, %xmm2, %xmm1
  12807. vpsrldq $8, %xmm2, %xmm2
  12808. vpxor %xmm0, %xmm1, %xmm1
  12809. vpclmulqdq $0x11, %xmm5, %xmm6, %xmm6
  12810. vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm1, %xmm0
  12811. vpshufd $0x4e, %xmm1, %xmm1
  12812. vpxor %xmm0, %xmm1, %xmm1
  12813. vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm1, %xmm0
  12814. vpshufd $0x4e, %xmm1, %xmm1
  12815. vpxor %xmm2, %xmm6, %xmm6
  12816. vpxor %xmm1, %xmm6, %xmm6
  12817. vpxor %xmm0, %xmm6, %xmm6
  12818. L_AES_GCM_encrypt_avx2_done_enc:
  12819. # calc_tag
  12820. shlq $3, %r10
  12821. vpinsrq $0x00, %r10, %xmm0, %xmm0
  12822. shlq $3, %r11
  12823. vpinsrq $0x01, %r11, %xmm1, %xmm1
  12824. vpblendd $12, %xmm1, %xmm0, %xmm0
  12825. vpxor %xmm6, %xmm0, %xmm0
  12826. # ghash_gfmul_red
  12827. vpclmulqdq $16, %xmm5, %xmm0, %xmm4
  12828. vpclmulqdq $0x01, %xmm5, %xmm0, %xmm3
  12829. vpclmulqdq $0x00, %xmm5, %xmm0, %xmm2
  12830. vpxor %xmm3, %xmm4, %xmm4
  12831. vpslldq $8, %xmm4, %xmm3
  12832. vpsrldq $8, %xmm4, %xmm4
  12833. vpxor %xmm2, %xmm3, %xmm3
  12834. vpclmulqdq $0x11, %xmm5, %xmm0, %xmm0
  12835. vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm3, %xmm2
  12836. vpshufd $0x4e, %xmm3, %xmm3
  12837. vpxor %xmm2, %xmm3, %xmm3
  12838. vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm3, %xmm2
  12839. vpshufd $0x4e, %xmm3, %xmm3
  12840. vpxor %xmm4, %xmm0, %xmm0
  12841. vpxor %xmm3, %xmm0, %xmm0
  12842. vpxor %xmm2, %xmm0, %xmm0
  12843. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  12844. vpxor %xmm15, %xmm0, %xmm0
  12845. # store_tag
  12846. cmpl $16, %r14d
  12847. je L_AES_GCM_encrypt_avx2_store_tag_16
  12848. xorq %rcx, %rcx
  12849. vmovdqu %xmm0, (%rsp)
  12850. L_AES_GCM_encrypt_avx2_store_tag_loop:
  12851. movzbl (%rsp,%rcx,1), %r13d
  12852. movb %r13b, (%r15,%rcx,1)
  12853. incl %ecx
  12854. cmpl %r14d, %ecx
  12855. jne L_AES_GCM_encrypt_avx2_store_tag_loop
  12856. jmp L_AES_GCM_encrypt_avx2_store_tag_done
  12857. L_AES_GCM_encrypt_avx2_store_tag_16:
  12858. vmovdqu %xmm0, (%r15)
  12859. L_AES_GCM_encrypt_avx2_store_tag_done:
  12860. vzeroupper
  12861. addq $0xa0, %rsp
  12862. popq %r14
  12863. popq %rbx
  12864. popq %r15
  12865. popq %r12
  12866. popq %r13
  12867. repz retq
  12868. #ifndef __APPLE__
  12869. .size AES_GCM_encrypt_avx2,.-AES_GCM_encrypt_avx2
  12870. #endif /* __APPLE__ */
  12871. #ifndef __APPLE__
  12872. .text
  12873. .globl AES_GCM_decrypt_avx2
  12874. .type AES_GCM_decrypt_avx2,@function
  12875. .align 16
  12876. AES_GCM_decrypt_avx2:
  12877. #else
  12878. .section __TEXT,__text
  12879. .globl _AES_GCM_decrypt_avx2
  12880. .p2align 4
  12881. _AES_GCM_decrypt_avx2:
  12882. #endif /* __APPLE__ */
  12883. pushq %r13
  12884. pushq %r12
  12885. pushq %r14
  12886. pushq %rbx
  12887. pushq %r15
  12888. pushq %rbp
  12889. movq %rdx, %r12
  12890. movq %rcx, %rax
  12891. movq %r8, %r14
  12892. movq %rsi, %r8
  12893. movl %r9d, %r10d
  12894. movl 56(%rsp), %r11d
  12895. movl 64(%rsp), %ebx
  12896. movl 72(%rsp), %r15d
  12897. movq 80(%rsp), %rsi
  12898. movl 88(%rsp), %r9d
  12899. movq 96(%rsp), %rbp
  12900. subq $0xa8, %rsp
  12901. vpxor %xmm4, %xmm4, %xmm4
  12902. vpxor %xmm6, %xmm6, %xmm6
  12903. movl %ebx, %edx
  12904. cmpl $12, %edx
  12905. je L_AES_GCM_decrypt_avx2_iv_12
  12906. # Calculate values when IV is not 12 bytes
  12907. # H = Encrypt X(=0)
  12908. vmovdqa (%rsi), %xmm5
  12909. vaesenc 16(%rsi), %xmm5, %xmm5
  12910. vaesenc 32(%rsi), %xmm5, %xmm5
  12911. vaesenc 48(%rsi), %xmm5, %xmm5
  12912. vaesenc 64(%rsi), %xmm5, %xmm5
  12913. vaesenc 80(%rsi), %xmm5, %xmm5
  12914. vaesenc 96(%rsi), %xmm5, %xmm5
  12915. vaesenc 112(%rsi), %xmm5, %xmm5
  12916. vaesenc 128(%rsi), %xmm5, %xmm5
  12917. vaesenc 144(%rsi), %xmm5, %xmm5
  12918. cmpl $11, %r9d
  12919. vmovdqa 160(%rsi), %xmm0
  12920. jl L_AES_GCM_decrypt_avx2_calc_iv_1_aesenc_avx_last
  12921. vaesenc %xmm0, %xmm5, %xmm5
  12922. vaesenc 176(%rsi), %xmm5, %xmm5
  12923. cmpl $13, %r9d
  12924. vmovdqa 192(%rsi), %xmm0
  12925. jl L_AES_GCM_decrypt_avx2_calc_iv_1_aesenc_avx_last
  12926. vaesenc %xmm0, %xmm5, %xmm5
  12927. vaesenc 208(%rsi), %xmm5, %xmm5
  12928. vmovdqa 224(%rsi), %xmm0
  12929. L_AES_GCM_decrypt_avx2_calc_iv_1_aesenc_avx_last:
  12930. vaesenclast %xmm0, %xmm5, %xmm5
  12931. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm5, %xmm5
  12932. # Calc counter
  12933. # Initialization vector
  12934. cmpl $0x00, %edx
  12935. movq $0x00, %rcx
  12936. je L_AES_GCM_decrypt_avx2_calc_iv_done
  12937. cmpl $16, %edx
  12938. jl L_AES_GCM_decrypt_avx2_calc_iv_lt16
  12939. andl $0xfffffff0, %edx
  12940. L_AES_GCM_decrypt_avx2_calc_iv_16_loop:
  12941. vmovdqu (%rax,%rcx,1), %xmm0
  12942. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  12943. vpxor %xmm0, %xmm4, %xmm4
  12944. # ghash_gfmul_avx
  12945. vpclmulqdq $16, %xmm4, %xmm5, %xmm2
  12946. vpclmulqdq $0x01, %xmm4, %xmm5, %xmm1
  12947. vpclmulqdq $0x00, %xmm4, %xmm5, %xmm0
  12948. vpclmulqdq $0x11, %xmm4, %xmm5, %xmm3
  12949. vpxor %xmm1, %xmm2, %xmm2
  12950. vpslldq $8, %xmm2, %xmm1
  12951. vpsrldq $8, %xmm2, %xmm2
  12952. vpxor %xmm1, %xmm0, %xmm7
  12953. vpxor %xmm2, %xmm3, %xmm4
  12954. # ghash_mid
  12955. vpsrld $31, %xmm7, %xmm0
  12956. vpsrld $31, %xmm4, %xmm1
  12957. vpslld $0x01, %xmm7, %xmm7
  12958. vpslld $0x01, %xmm4, %xmm4
  12959. vpsrldq $12, %xmm0, %xmm2
  12960. vpslldq $4, %xmm0, %xmm0
  12961. vpslldq $4, %xmm1, %xmm1
  12962. vpor %xmm2, %xmm4, %xmm4
  12963. vpor %xmm0, %xmm7, %xmm7
  12964. vpor %xmm1, %xmm4, %xmm4
  12965. # ghash_red
  12966. vmovdqa L_avx2_aes_gcm_mod2_128(%rip), %xmm2
  12967. vpclmulqdq $16, %xmm2, %xmm7, %xmm0
  12968. vpshufd $0x4e, %xmm7, %xmm1
  12969. vpxor %xmm0, %xmm1, %xmm1
  12970. vpclmulqdq $16, %xmm2, %xmm1, %xmm0
  12971. vpshufd $0x4e, %xmm1, %xmm1
  12972. vpxor %xmm0, %xmm1, %xmm1
  12973. vpxor %xmm1, %xmm4, %xmm4
  12974. addl $16, %ecx
  12975. cmpl %edx, %ecx
  12976. jl L_AES_GCM_decrypt_avx2_calc_iv_16_loop
  12977. movl %ebx, %edx
  12978. cmpl %edx, %ecx
  12979. je L_AES_GCM_decrypt_avx2_calc_iv_done
  12980. L_AES_GCM_decrypt_avx2_calc_iv_lt16:
  12981. vpxor %xmm0, %xmm0, %xmm0
  12982. xorl %ebx, %ebx
  12983. vmovdqu %xmm0, (%rsp)
  12984. L_AES_GCM_decrypt_avx2_calc_iv_loop:
  12985. movzbl (%rax,%rcx,1), %r13d
  12986. movb %r13b, (%rsp,%rbx,1)
  12987. incl %ecx
  12988. incl %ebx
  12989. cmpl %edx, %ecx
  12990. jl L_AES_GCM_decrypt_avx2_calc_iv_loop
  12991. vmovdqu (%rsp), %xmm0
  12992. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  12993. vpxor %xmm0, %xmm4, %xmm4
  12994. # ghash_gfmul_avx
  12995. vpclmulqdq $16, %xmm4, %xmm5, %xmm2
  12996. vpclmulqdq $0x01, %xmm4, %xmm5, %xmm1
  12997. vpclmulqdq $0x00, %xmm4, %xmm5, %xmm0
  12998. vpclmulqdq $0x11, %xmm4, %xmm5, %xmm3
  12999. vpxor %xmm1, %xmm2, %xmm2
  13000. vpslldq $8, %xmm2, %xmm1
  13001. vpsrldq $8, %xmm2, %xmm2
  13002. vpxor %xmm1, %xmm0, %xmm7
  13003. vpxor %xmm2, %xmm3, %xmm4
  13004. # ghash_mid
  13005. vpsrld $31, %xmm7, %xmm0
  13006. vpsrld $31, %xmm4, %xmm1
  13007. vpslld $0x01, %xmm7, %xmm7
  13008. vpslld $0x01, %xmm4, %xmm4
  13009. vpsrldq $12, %xmm0, %xmm2
  13010. vpslldq $4, %xmm0, %xmm0
  13011. vpslldq $4, %xmm1, %xmm1
  13012. vpor %xmm2, %xmm4, %xmm4
  13013. vpor %xmm0, %xmm7, %xmm7
  13014. vpor %xmm1, %xmm4, %xmm4
  13015. # ghash_red
  13016. vmovdqa L_avx2_aes_gcm_mod2_128(%rip), %xmm2
  13017. vpclmulqdq $16, %xmm2, %xmm7, %xmm0
  13018. vpshufd $0x4e, %xmm7, %xmm1
  13019. vpxor %xmm0, %xmm1, %xmm1
  13020. vpclmulqdq $16, %xmm2, %xmm1, %xmm0
  13021. vpshufd $0x4e, %xmm1, %xmm1
  13022. vpxor %xmm0, %xmm1, %xmm1
  13023. vpxor %xmm1, %xmm4, %xmm4
  13024. L_AES_GCM_decrypt_avx2_calc_iv_done:
  13025. # T = Encrypt counter
  13026. vpxor %xmm0, %xmm0, %xmm0
  13027. shll $3, %edx
  13028. vpinsrq $0x00, %rdx, %xmm0, %xmm0
  13029. vpxor %xmm0, %xmm4, %xmm4
  13030. # ghash_gfmul_avx
  13031. vpclmulqdq $16, %xmm4, %xmm5, %xmm2
  13032. vpclmulqdq $0x01, %xmm4, %xmm5, %xmm1
  13033. vpclmulqdq $0x00, %xmm4, %xmm5, %xmm0
  13034. vpclmulqdq $0x11, %xmm4, %xmm5, %xmm3
  13035. vpxor %xmm1, %xmm2, %xmm2
  13036. vpslldq $8, %xmm2, %xmm1
  13037. vpsrldq $8, %xmm2, %xmm2
  13038. vpxor %xmm1, %xmm0, %xmm7
  13039. vpxor %xmm2, %xmm3, %xmm4
  13040. # ghash_mid
  13041. vpsrld $31, %xmm7, %xmm0
  13042. vpsrld $31, %xmm4, %xmm1
  13043. vpslld $0x01, %xmm7, %xmm7
  13044. vpslld $0x01, %xmm4, %xmm4
  13045. vpsrldq $12, %xmm0, %xmm2
  13046. vpslldq $4, %xmm0, %xmm0
  13047. vpslldq $4, %xmm1, %xmm1
  13048. vpor %xmm2, %xmm4, %xmm4
  13049. vpor %xmm0, %xmm7, %xmm7
  13050. vpor %xmm1, %xmm4, %xmm4
  13051. # ghash_red
  13052. vmovdqa L_avx2_aes_gcm_mod2_128(%rip), %xmm2
  13053. vpclmulqdq $16, %xmm2, %xmm7, %xmm0
  13054. vpshufd $0x4e, %xmm7, %xmm1
  13055. vpxor %xmm0, %xmm1, %xmm1
  13056. vpclmulqdq $16, %xmm2, %xmm1, %xmm0
  13057. vpshufd $0x4e, %xmm1, %xmm1
  13058. vpxor %xmm0, %xmm1, %xmm1
  13059. vpxor %xmm1, %xmm4, %xmm4
  13060. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm4, %xmm4
  13061. # Encrypt counter
  13062. vmovdqa (%rsi), %xmm15
  13063. vpxor %xmm4, %xmm15, %xmm15
  13064. vaesenc 16(%rsi), %xmm15, %xmm15
  13065. vaesenc 32(%rsi), %xmm15, %xmm15
  13066. vaesenc 48(%rsi), %xmm15, %xmm15
  13067. vaesenc 64(%rsi), %xmm15, %xmm15
  13068. vaesenc 80(%rsi), %xmm15, %xmm15
  13069. vaesenc 96(%rsi), %xmm15, %xmm15
  13070. vaesenc 112(%rsi), %xmm15, %xmm15
  13071. vaesenc 128(%rsi), %xmm15, %xmm15
  13072. vaesenc 144(%rsi), %xmm15, %xmm15
  13073. cmpl $11, %r9d
  13074. vmovdqa 160(%rsi), %xmm0
  13075. jl L_AES_GCM_decrypt_avx2_calc_iv_2_aesenc_avx_last
  13076. vaesenc %xmm0, %xmm15, %xmm15
  13077. vaesenc 176(%rsi), %xmm15, %xmm15
  13078. cmpl $13, %r9d
  13079. vmovdqa 192(%rsi), %xmm0
  13080. jl L_AES_GCM_decrypt_avx2_calc_iv_2_aesenc_avx_last
  13081. vaesenc %xmm0, %xmm15, %xmm15
  13082. vaesenc 208(%rsi), %xmm15, %xmm15
  13083. vmovdqa 224(%rsi), %xmm0
  13084. L_AES_GCM_decrypt_avx2_calc_iv_2_aesenc_avx_last:
  13085. vaesenclast %xmm0, %xmm15, %xmm15
  13086. jmp L_AES_GCM_decrypt_avx2_iv_done
  13087. L_AES_GCM_decrypt_avx2_iv_12:
  13088. # # Calculate values when IV is 12 bytes
  13089. # Set counter based on IV
  13090. vmovdqa L_avx2_aes_gcm_bswap_one(%rip), %xmm4
  13091. vmovdqa (%rsi), %xmm5
  13092. vpblendd $7, (%rax), %xmm4, %xmm4
  13093. # H = Encrypt X(=0) and T = Encrypt counter
  13094. vmovdqa 16(%rsi), %xmm7
  13095. vpxor %xmm5, %xmm4, %xmm15
  13096. vaesenc %xmm7, %xmm5, %xmm5
  13097. vaesenc %xmm7, %xmm15, %xmm15
  13098. vmovdqa 32(%rsi), %xmm0
  13099. vaesenc %xmm0, %xmm5, %xmm5
  13100. vaesenc %xmm0, %xmm15, %xmm15
  13101. vmovdqa 48(%rsi), %xmm0
  13102. vaesenc %xmm0, %xmm5, %xmm5
  13103. vaesenc %xmm0, %xmm15, %xmm15
  13104. vmovdqa 64(%rsi), %xmm0
  13105. vaesenc %xmm0, %xmm5, %xmm5
  13106. vaesenc %xmm0, %xmm15, %xmm15
  13107. vmovdqa 80(%rsi), %xmm0
  13108. vaesenc %xmm0, %xmm5, %xmm5
  13109. vaesenc %xmm0, %xmm15, %xmm15
  13110. vmovdqa 96(%rsi), %xmm0
  13111. vaesenc %xmm0, %xmm5, %xmm5
  13112. vaesenc %xmm0, %xmm15, %xmm15
  13113. vmovdqa 112(%rsi), %xmm0
  13114. vaesenc %xmm0, %xmm5, %xmm5
  13115. vaesenc %xmm0, %xmm15, %xmm15
  13116. vmovdqa 128(%rsi), %xmm0
  13117. vaesenc %xmm0, %xmm5, %xmm5
  13118. vaesenc %xmm0, %xmm15, %xmm15
  13119. vmovdqa 144(%rsi), %xmm0
  13120. vaesenc %xmm0, %xmm5, %xmm5
  13121. vaesenc %xmm0, %xmm15, %xmm15
  13122. cmpl $11, %r9d
  13123. vmovdqa 160(%rsi), %xmm0
  13124. jl L_AES_GCM_decrypt_avx2_calc_iv_12_last
  13125. vaesenc %xmm0, %xmm5, %xmm5
  13126. vaesenc %xmm0, %xmm15, %xmm15
  13127. vmovdqa 176(%rsi), %xmm0
  13128. vaesenc %xmm0, %xmm5, %xmm5
  13129. vaesenc %xmm0, %xmm15, %xmm15
  13130. cmpl $13, %r9d
  13131. vmovdqa 192(%rsi), %xmm0
  13132. jl L_AES_GCM_decrypt_avx2_calc_iv_12_last
  13133. vaesenc %xmm0, %xmm5, %xmm5
  13134. vaesenc %xmm0, %xmm15, %xmm15
  13135. vmovdqa 208(%rsi), %xmm0
  13136. vaesenc %xmm0, %xmm5, %xmm5
  13137. vaesenc %xmm0, %xmm15, %xmm15
  13138. vmovdqa 224(%rsi), %xmm0
  13139. L_AES_GCM_decrypt_avx2_calc_iv_12_last:
  13140. vaesenclast %xmm0, %xmm5, %xmm5
  13141. vaesenclast %xmm0, %xmm15, %xmm15
  13142. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm5, %xmm5
  13143. L_AES_GCM_decrypt_avx2_iv_done:
  13144. # Additional authentication data
  13145. movl %r11d, %edx
  13146. cmpl $0x00, %edx
  13147. je L_AES_GCM_decrypt_avx2_calc_aad_done
  13148. xorl %ecx, %ecx
  13149. cmpl $16, %edx
  13150. jl L_AES_GCM_decrypt_avx2_calc_aad_lt16
  13151. andl $0xfffffff0, %edx
  13152. L_AES_GCM_decrypt_avx2_calc_aad_16_loop:
  13153. vmovdqu (%r12,%rcx,1), %xmm0
  13154. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  13155. vpxor %xmm0, %xmm6, %xmm6
  13156. # ghash_gfmul_avx
  13157. vpclmulqdq $16, %xmm6, %xmm5, %xmm2
  13158. vpclmulqdq $0x01, %xmm6, %xmm5, %xmm1
  13159. vpclmulqdq $0x00, %xmm6, %xmm5, %xmm0
  13160. vpclmulqdq $0x11, %xmm6, %xmm5, %xmm3
  13161. vpxor %xmm1, %xmm2, %xmm2
  13162. vpslldq $8, %xmm2, %xmm1
  13163. vpsrldq $8, %xmm2, %xmm2
  13164. vpxor %xmm1, %xmm0, %xmm7
  13165. vpxor %xmm2, %xmm3, %xmm6
  13166. # ghash_mid
  13167. vpsrld $31, %xmm7, %xmm0
  13168. vpsrld $31, %xmm6, %xmm1
  13169. vpslld $0x01, %xmm7, %xmm7
  13170. vpslld $0x01, %xmm6, %xmm6
  13171. vpsrldq $12, %xmm0, %xmm2
  13172. vpslldq $4, %xmm0, %xmm0
  13173. vpslldq $4, %xmm1, %xmm1
  13174. vpor %xmm2, %xmm6, %xmm6
  13175. vpor %xmm0, %xmm7, %xmm7
  13176. vpor %xmm1, %xmm6, %xmm6
  13177. # ghash_red
  13178. vmovdqa L_avx2_aes_gcm_mod2_128(%rip), %xmm2
  13179. vpclmulqdq $16, %xmm2, %xmm7, %xmm0
  13180. vpshufd $0x4e, %xmm7, %xmm1
  13181. vpxor %xmm0, %xmm1, %xmm1
  13182. vpclmulqdq $16, %xmm2, %xmm1, %xmm0
  13183. vpshufd $0x4e, %xmm1, %xmm1
  13184. vpxor %xmm0, %xmm1, %xmm1
  13185. vpxor %xmm1, %xmm6, %xmm6
  13186. addl $16, %ecx
  13187. cmpl %edx, %ecx
  13188. jl L_AES_GCM_decrypt_avx2_calc_aad_16_loop
  13189. movl %r11d, %edx
  13190. cmpl %edx, %ecx
  13191. je L_AES_GCM_decrypt_avx2_calc_aad_done
  13192. L_AES_GCM_decrypt_avx2_calc_aad_lt16:
  13193. vpxor %xmm0, %xmm0, %xmm0
  13194. xorl %ebx, %ebx
  13195. vmovdqu %xmm0, (%rsp)
  13196. L_AES_GCM_decrypt_avx2_calc_aad_loop:
  13197. movzbl (%r12,%rcx,1), %r13d
  13198. movb %r13b, (%rsp,%rbx,1)
  13199. incl %ecx
  13200. incl %ebx
  13201. cmpl %edx, %ecx
  13202. jl L_AES_GCM_decrypt_avx2_calc_aad_loop
  13203. vmovdqu (%rsp), %xmm0
  13204. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  13205. vpxor %xmm0, %xmm6, %xmm6
  13206. # ghash_gfmul_avx
  13207. vpclmulqdq $16, %xmm6, %xmm5, %xmm2
  13208. vpclmulqdq $0x01, %xmm6, %xmm5, %xmm1
  13209. vpclmulqdq $0x00, %xmm6, %xmm5, %xmm0
  13210. vpclmulqdq $0x11, %xmm6, %xmm5, %xmm3
  13211. vpxor %xmm1, %xmm2, %xmm2
  13212. vpslldq $8, %xmm2, %xmm1
  13213. vpsrldq $8, %xmm2, %xmm2
  13214. vpxor %xmm1, %xmm0, %xmm7
  13215. vpxor %xmm2, %xmm3, %xmm6
  13216. # ghash_mid
  13217. vpsrld $31, %xmm7, %xmm0
  13218. vpsrld $31, %xmm6, %xmm1
  13219. vpslld $0x01, %xmm7, %xmm7
  13220. vpslld $0x01, %xmm6, %xmm6
  13221. vpsrldq $12, %xmm0, %xmm2
  13222. vpslldq $4, %xmm0, %xmm0
  13223. vpslldq $4, %xmm1, %xmm1
  13224. vpor %xmm2, %xmm6, %xmm6
  13225. vpor %xmm0, %xmm7, %xmm7
  13226. vpor %xmm1, %xmm6, %xmm6
  13227. # ghash_red
  13228. vmovdqa L_avx2_aes_gcm_mod2_128(%rip), %xmm2
  13229. vpclmulqdq $16, %xmm2, %xmm7, %xmm0
  13230. vpshufd $0x4e, %xmm7, %xmm1
  13231. vpxor %xmm0, %xmm1, %xmm1
  13232. vpclmulqdq $16, %xmm2, %xmm1, %xmm0
  13233. vpshufd $0x4e, %xmm1, %xmm1
  13234. vpxor %xmm0, %xmm1, %xmm1
  13235. vpxor %xmm1, %xmm6, %xmm6
  13236. L_AES_GCM_decrypt_avx2_calc_aad_done:
  13237. # Calculate counter and H
  13238. vpsrlq $63, %xmm5, %xmm1
  13239. vpsllq $0x01, %xmm5, %xmm0
  13240. vpslldq $8, %xmm1, %xmm1
  13241. vpor %xmm1, %xmm0, %xmm0
  13242. vpshufd $0xff, %xmm5, %xmm5
  13243. vpsrad $31, %xmm5, %xmm5
  13244. vpshufb L_avx2_aes_gcm_bswap_epi64(%rip), %xmm4, %xmm4
  13245. vpand L_avx2_aes_gcm_mod2_128(%rip), %xmm5, %xmm5
  13246. vpaddd L_avx2_aes_gcm_one(%rip), %xmm4, %xmm4
  13247. vpxor %xmm0, %xmm5, %xmm5
  13248. xorl %ebx, %ebx
  13249. cmpl $0x80, %r10d
  13250. movl %r10d, %r13d
  13251. jl L_AES_GCM_decrypt_avx2_done_128
  13252. andl $0xffffff80, %r13d
  13253. vmovdqa %xmm4, 128(%rsp)
  13254. vmovdqa %xmm15, 144(%rsp)
  13255. vmovdqa L_avx2_aes_gcm_mod2_128(%rip), %xmm3
  13256. # H ^ 1 and H ^ 2
  13257. vpclmulqdq $0x00, %xmm5, %xmm5, %xmm9
  13258. vpclmulqdq $0x11, %xmm5, %xmm5, %xmm10
  13259. vpclmulqdq $16, %xmm3, %xmm9, %xmm8
  13260. vpshufd $0x4e, %xmm9, %xmm9
  13261. vpxor %xmm8, %xmm9, %xmm9
  13262. vpclmulqdq $16, %xmm3, %xmm9, %xmm8
  13263. vpshufd $0x4e, %xmm9, %xmm9
  13264. vpxor %xmm8, %xmm9, %xmm9
  13265. vpxor %xmm9, %xmm10, %xmm0
  13266. vmovdqa %xmm5, (%rsp)
  13267. vmovdqa %xmm0, 16(%rsp)
  13268. # H ^ 3 and H ^ 4
  13269. vpclmulqdq $16, %xmm5, %xmm0, %xmm11
  13270. vpclmulqdq $0x01, %xmm5, %xmm0, %xmm10
  13271. vpclmulqdq $0x00, %xmm5, %xmm0, %xmm9
  13272. vpclmulqdq $0x11, %xmm5, %xmm0, %xmm12
  13273. vpclmulqdq $0x00, %xmm0, %xmm0, %xmm13
  13274. vpclmulqdq $0x11, %xmm0, %xmm0, %xmm14
  13275. vpxor %xmm10, %xmm11, %xmm11
  13276. vpslldq $8, %xmm11, %xmm10
  13277. vpsrldq $8, %xmm11, %xmm11
  13278. vpxor %xmm9, %xmm10, %xmm10
  13279. vpclmulqdq $16, %xmm3, %xmm13, %xmm8
  13280. vpclmulqdq $16, %xmm3, %xmm10, %xmm9
  13281. vpshufd $0x4e, %xmm10, %xmm10
  13282. vpshufd $0x4e, %xmm13, %xmm13
  13283. vpxor %xmm9, %xmm10, %xmm10
  13284. vpxor %xmm8, %xmm13, %xmm13
  13285. vpclmulqdq $16, %xmm3, %xmm10, %xmm9
  13286. vpclmulqdq $16, %xmm3, %xmm13, %xmm8
  13287. vpshufd $0x4e, %xmm10, %xmm10
  13288. vpshufd $0x4e, %xmm13, %xmm13
  13289. vpxor %xmm11, %xmm12, %xmm12
  13290. vpxor %xmm8, %xmm13, %xmm13
  13291. vpxor %xmm12, %xmm10, %xmm10
  13292. vpxor %xmm14, %xmm13, %xmm2
  13293. vpxor %xmm9, %xmm10, %xmm1
  13294. vmovdqa %xmm1, 32(%rsp)
  13295. vmovdqa %xmm2, 48(%rsp)
  13296. # H ^ 5 and H ^ 6
  13297. vpclmulqdq $16, %xmm0, %xmm1, %xmm11
  13298. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm10
  13299. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm9
  13300. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm12
  13301. vpclmulqdq $0x00, %xmm1, %xmm1, %xmm13
  13302. vpclmulqdq $0x11, %xmm1, %xmm1, %xmm14
  13303. vpxor %xmm10, %xmm11, %xmm11
  13304. vpslldq $8, %xmm11, %xmm10
  13305. vpsrldq $8, %xmm11, %xmm11
  13306. vpxor %xmm9, %xmm10, %xmm10
  13307. vpclmulqdq $16, %xmm3, %xmm13, %xmm8
  13308. vpclmulqdq $16, %xmm3, %xmm10, %xmm9
  13309. vpshufd $0x4e, %xmm10, %xmm10
  13310. vpshufd $0x4e, %xmm13, %xmm13
  13311. vpxor %xmm9, %xmm10, %xmm10
  13312. vpxor %xmm8, %xmm13, %xmm13
  13313. vpclmulqdq $16, %xmm3, %xmm10, %xmm9
  13314. vpclmulqdq $16, %xmm3, %xmm13, %xmm8
  13315. vpshufd $0x4e, %xmm10, %xmm10
  13316. vpshufd $0x4e, %xmm13, %xmm13
  13317. vpxor %xmm11, %xmm12, %xmm12
  13318. vpxor %xmm8, %xmm13, %xmm13
  13319. vpxor %xmm12, %xmm10, %xmm10
  13320. vpxor %xmm14, %xmm13, %xmm0
  13321. vpxor %xmm9, %xmm10, %xmm7
  13322. vmovdqa %xmm7, 64(%rsp)
  13323. vmovdqa %xmm0, 80(%rsp)
  13324. # H ^ 7 and H ^ 8
  13325. vpclmulqdq $16, %xmm1, %xmm2, %xmm11
  13326. vpclmulqdq $0x01, %xmm1, %xmm2, %xmm10
  13327. vpclmulqdq $0x00, %xmm1, %xmm2, %xmm9
  13328. vpclmulqdq $0x11, %xmm1, %xmm2, %xmm12
  13329. vpclmulqdq $0x00, %xmm2, %xmm2, %xmm13
  13330. vpclmulqdq $0x11, %xmm2, %xmm2, %xmm14
  13331. vpxor %xmm10, %xmm11, %xmm11
  13332. vpslldq $8, %xmm11, %xmm10
  13333. vpsrldq $8, %xmm11, %xmm11
  13334. vpxor %xmm9, %xmm10, %xmm10
  13335. vpclmulqdq $16, %xmm3, %xmm13, %xmm8
  13336. vpclmulqdq $16, %xmm3, %xmm10, %xmm9
  13337. vpshufd $0x4e, %xmm10, %xmm10
  13338. vpshufd $0x4e, %xmm13, %xmm13
  13339. vpxor %xmm9, %xmm10, %xmm10
  13340. vpxor %xmm8, %xmm13, %xmm13
  13341. vpclmulqdq $16, %xmm3, %xmm10, %xmm9
  13342. vpclmulqdq $16, %xmm3, %xmm13, %xmm8
  13343. vpshufd $0x4e, %xmm10, %xmm10
  13344. vpshufd $0x4e, %xmm13, %xmm13
  13345. vpxor %xmm11, %xmm12, %xmm12
  13346. vpxor %xmm8, %xmm13, %xmm13
  13347. vpxor %xmm12, %xmm10, %xmm10
  13348. vpxor %xmm14, %xmm13, %xmm0
  13349. vpxor %xmm9, %xmm10, %xmm7
  13350. vmovdqa %xmm7, 96(%rsp)
  13351. vmovdqa %xmm0, 112(%rsp)
  13352. L_AES_GCM_decrypt_avx2_ghash_128:
  13353. # aesenc_128_ghash
  13354. leaq (%rdi,%rbx,1), %rcx
  13355. leaq (%r8,%rbx,1), %rdx
  13356. # aesenc_ctr
  13357. vmovdqa 128(%rsp), %xmm0
  13358. vmovdqa L_avx2_aes_gcm_bswap_epi64(%rip), %xmm1
  13359. vpaddd L_avx2_aes_gcm_one(%rip), %xmm0, %xmm9
  13360. vpshufb %xmm1, %xmm0, %xmm8
  13361. vpaddd L_avx2_aes_gcm_two(%rip), %xmm0, %xmm10
  13362. vpshufb %xmm1, %xmm9, %xmm9
  13363. vpaddd L_avx2_aes_gcm_three(%rip), %xmm0, %xmm11
  13364. vpshufb %xmm1, %xmm10, %xmm10
  13365. vpaddd L_avx2_aes_gcm_four(%rip), %xmm0, %xmm12
  13366. vpshufb %xmm1, %xmm11, %xmm11
  13367. vpaddd L_avx2_aes_gcm_five(%rip), %xmm0, %xmm13
  13368. vpshufb %xmm1, %xmm12, %xmm12
  13369. vpaddd L_avx2_aes_gcm_six(%rip), %xmm0, %xmm14
  13370. vpshufb %xmm1, %xmm13, %xmm13
  13371. vpaddd L_avx2_aes_gcm_seven(%rip), %xmm0, %xmm15
  13372. vpshufb %xmm1, %xmm14, %xmm14
  13373. vpaddd L_avx2_aes_gcm_eight(%rip), %xmm0, %xmm0
  13374. vpshufb %xmm1, %xmm15, %xmm15
  13375. # aesenc_xor
  13376. vmovdqa (%rsi), %xmm7
  13377. vmovdqa %xmm0, 128(%rsp)
  13378. vpxor %xmm7, %xmm8, %xmm8
  13379. vpxor %xmm7, %xmm9, %xmm9
  13380. vpxor %xmm7, %xmm10, %xmm10
  13381. vpxor %xmm7, %xmm11, %xmm11
  13382. vpxor %xmm7, %xmm12, %xmm12
  13383. vpxor %xmm7, %xmm13, %xmm13
  13384. vpxor %xmm7, %xmm14, %xmm14
  13385. vpxor %xmm7, %xmm15, %xmm15
  13386. # aesenc_pclmul_1
  13387. vmovdqu (%rcx), %xmm1
  13388. vmovdqu 16(%rsi), %xmm0
  13389. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
  13390. vmovdqa 112(%rsp), %xmm2
  13391. vpxor %xmm6, %xmm1, %xmm1
  13392. vpclmulqdq $16, %xmm2, %xmm1, %xmm5
  13393. vpclmulqdq $0x01, %xmm2, %xmm1, %xmm3
  13394. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm6
  13395. vpclmulqdq $0x11, %xmm2, %xmm1, %xmm7
  13396. vaesenc %xmm0, %xmm8, %xmm8
  13397. vaesenc %xmm0, %xmm9, %xmm9
  13398. vaesenc %xmm0, %xmm10, %xmm10
  13399. vaesenc %xmm0, %xmm11, %xmm11
  13400. vaesenc %xmm0, %xmm12, %xmm12
  13401. vaesenc %xmm0, %xmm13, %xmm13
  13402. vaesenc %xmm0, %xmm14, %xmm14
  13403. vaesenc %xmm0, %xmm15, %xmm15
  13404. # aesenc_pclmul_2
  13405. vmovdqu 16(%rcx), %xmm1
  13406. vmovdqa 96(%rsp), %xmm0
  13407. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
  13408. vpxor %xmm3, %xmm5, %xmm5
  13409. vpclmulqdq $16, %xmm0, %xmm1, %xmm2
  13410. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
  13411. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
  13412. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
  13413. vmovdqu 32(%rsi), %xmm0
  13414. vpxor %xmm1, %xmm7, %xmm7
  13415. vaesenc %xmm0, %xmm8, %xmm8
  13416. vaesenc %xmm0, %xmm9, %xmm9
  13417. vaesenc %xmm0, %xmm10, %xmm10
  13418. vaesenc %xmm0, %xmm11, %xmm11
  13419. vaesenc %xmm0, %xmm12, %xmm12
  13420. vaesenc %xmm0, %xmm13, %xmm13
  13421. vaesenc %xmm0, %xmm14, %xmm14
  13422. vaesenc %xmm0, %xmm15, %xmm15
  13423. # aesenc_pclmul_n
  13424. vmovdqu 32(%rcx), %xmm1
  13425. vmovdqa 80(%rsp), %xmm0
  13426. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
  13427. vpxor %xmm2, %xmm5, %xmm5
  13428. vpclmulqdq $16, %xmm0, %xmm1, %xmm2
  13429. vpxor %xmm3, %xmm5, %xmm5
  13430. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
  13431. vpxor %xmm4, %xmm6, %xmm6
  13432. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
  13433. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
  13434. vmovdqu 48(%rsi), %xmm0
  13435. vpxor %xmm1, %xmm7, %xmm7
  13436. vaesenc %xmm0, %xmm8, %xmm8
  13437. vaesenc %xmm0, %xmm9, %xmm9
  13438. vaesenc %xmm0, %xmm10, %xmm10
  13439. vaesenc %xmm0, %xmm11, %xmm11
  13440. vaesenc %xmm0, %xmm12, %xmm12
  13441. vaesenc %xmm0, %xmm13, %xmm13
  13442. vaesenc %xmm0, %xmm14, %xmm14
  13443. vaesenc %xmm0, %xmm15, %xmm15
  13444. # aesenc_pclmul_n
  13445. vmovdqu 48(%rcx), %xmm1
  13446. vmovdqa 64(%rsp), %xmm0
  13447. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
  13448. vpxor %xmm2, %xmm5, %xmm5
  13449. vpclmulqdq $16, %xmm0, %xmm1, %xmm2
  13450. vpxor %xmm3, %xmm5, %xmm5
  13451. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
  13452. vpxor %xmm4, %xmm6, %xmm6
  13453. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
  13454. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
  13455. vmovdqu 64(%rsi), %xmm0
  13456. vpxor %xmm1, %xmm7, %xmm7
  13457. vaesenc %xmm0, %xmm8, %xmm8
  13458. vaesenc %xmm0, %xmm9, %xmm9
  13459. vaesenc %xmm0, %xmm10, %xmm10
  13460. vaesenc %xmm0, %xmm11, %xmm11
  13461. vaesenc %xmm0, %xmm12, %xmm12
  13462. vaesenc %xmm0, %xmm13, %xmm13
  13463. vaesenc %xmm0, %xmm14, %xmm14
  13464. vaesenc %xmm0, %xmm15, %xmm15
  13465. # aesenc_pclmul_n
  13466. vmovdqu 64(%rcx), %xmm1
  13467. vmovdqa 48(%rsp), %xmm0
  13468. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
  13469. vpxor %xmm2, %xmm5, %xmm5
  13470. vpclmulqdq $16, %xmm0, %xmm1, %xmm2
  13471. vpxor %xmm3, %xmm5, %xmm5
  13472. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
  13473. vpxor %xmm4, %xmm6, %xmm6
  13474. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
  13475. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
  13476. vmovdqu 80(%rsi), %xmm0
  13477. vpxor %xmm1, %xmm7, %xmm7
  13478. vaesenc %xmm0, %xmm8, %xmm8
  13479. vaesenc %xmm0, %xmm9, %xmm9
  13480. vaesenc %xmm0, %xmm10, %xmm10
  13481. vaesenc %xmm0, %xmm11, %xmm11
  13482. vaesenc %xmm0, %xmm12, %xmm12
  13483. vaesenc %xmm0, %xmm13, %xmm13
  13484. vaesenc %xmm0, %xmm14, %xmm14
  13485. vaesenc %xmm0, %xmm15, %xmm15
  13486. # aesenc_pclmul_n
  13487. vmovdqu 80(%rcx), %xmm1
  13488. vmovdqa 32(%rsp), %xmm0
  13489. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
  13490. vpxor %xmm2, %xmm5, %xmm5
  13491. vpclmulqdq $16, %xmm0, %xmm1, %xmm2
  13492. vpxor %xmm3, %xmm5, %xmm5
  13493. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
  13494. vpxor %xmm4, %xmm6, %xmm6
  13495. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
  13496. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
  13497. vmovdqu 96(%rsi), %xmm0
  13498. vpxor %xmm1, %xmm7, %xmm7
  13499. vaesenc %xmm0, %xmm8, %xmm8
  13500. vaesenc %xmm0, %xmm9, %xmm9
  13501. vaesenc %xmm0, %xmm10, %xmm10
  13502. vaesenc %xmm0, %xmm11, %xmm11
  13503. vaesenc %xmm0, %xmm12, %xmm12
  13504. vaesenc %xmm0, %xmm13, %xmm13
  13505. vaesenc %xmm0, %xmm14, %xmm14
  13506. vaesenc %xmm0, %xmm15, %xmm15
  13507. # aesenc_pclmul_n
  13508. vmovdqu 96(%rcx), %xmm1
  13509. vmovdqa 16(%rsp), %xmm0
  13510. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
  13511. vpxor %xmm2, %xmm5, %xmm5
  13512. vpclmulqdq $16, %xmm0, %xmm1, %xmm2
  13513. vpxor %xmm3, %xmm5, %xmm5
  13514. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
  13515. vpxor %xmm4, %xmm6, %xmm6
  13516. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
  13517. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
  13518. vmovdqu 112(%rsi), %xmm0
  13519. vpxor %xmm1, %xmm7, %xmm7
  13520. vaesenc %xmm0, %xmm8, %xmm8
  13521. vaesenc %xmm0, %xmm9, %xmm9
  13522. vaesenc %xmm0, %xmm10, %xmm10
  13523. vaesenc %xmm0, %xmm11, %xmm11
  13524. vaesenc %xmm0, %xmm12, %xmm12
  13525. vaesenc %xmm0, %xmm13, %xmm13
  13526. vaesenc %xmm0, %xmm14, %xmm14
  13527. vaesenc %xmm0, %xmm15, %xmm15
  13528. # aesenc_pclmul_n
  13529. vmovdqu 112(%rcx), %xmm1
  13530. vmovdqa (%rsp), %xmm0
  13531. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
  13532. vpxor %xmm2, %xmm5, %xmm5
  13533. vpclmulqdq $16, %xmm0, %xmm1, %xmm2
  13534. vpxor %xmm3, %xmm5, %xmm5
  13535. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
  13536. vpxor %xmm4, %xmm6, %xmm6
  13537. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
  13538. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
  13539. vmovdqu 128(%rsi), %xmm0
  13540. vpxor %xmm1, %xmm7, %xmm7
  13541. vaesenc %xmm0, %xmm8, %xmm8
  13542. vaesenc %xmm0, %xmm9, %xmm9
  13543. vaesenc %xmm0, %xmm10, %xmm10
  13544. vaesenc %xmm0, %xmm11, %xmm11
  13545. vaesenc %xmm0, %xmm12, %xmm12
  13546. vaesenc %xmm0, %xmm13, %xmm13
  13547. vaesenc %xmm0, %xmm14, %xmm14
  13548. vaesenc %xmm0, %xmm15, %xmm15
  13549. # aesenc_pclmul_l
  13550. vpxor %xmm2, %xmm5, %xmm5
  13551. vpxor %xmm4, %xmm6, %xmm6
  13552. vpxor %xmm3, %xmm5, %xmm5
  13553. vpslldq $8, %xmm5, %xmm1
  13554. vpsrldq $8, %xmm5, %xmm5
  13555. vmovdqa 144(%rsi), %xmm4
  13556. vmovdqa L_avx2_aes_gcm_mod2_128(%rip), %xmm0
  13557. vaesenc %xmm4, %xmm8, %xmm8
  13558. vpxor %xmm1, %xmm6, %xmm6
  13559. vpxor %xmm5, %xmm7, %xmm7
  13560. vpclmulqdq $16, %xmm0, %xmm6, %xmm3
  13561. vaesenc %xmm4, %xmm9, %xmm9
  13562. vaesenc %xmm4, %xmm10, %xmm10
  13563. vaesenc %xmm4, %xmm11, %xmm11
  13564. vpshufd $0x4e, %xmm6, %xmm6
  13565. vpxor %xmm3, %xmm6, %xmm6
  13566. vpclmulqdq $16, %xmm0, %xmm6, %xmm3
  13567. vaesenc %xmm4, %xmm12, %xmm12
  13568. vaesenc %xmm4, %xmm13, %xmm13
  13569. vaesenc %xmm4, %xmm14, %xmm14
  13570. vpshufd $0x4e, %xmm6, %xmm6
  13571. vpxor %xmm3, %xmm6, %xmm6
  13572. vpxor %xmm7, %xmm6, %xmm6
  13573. vaesenc %xmm4, %xmm15, %xmm15
  13574. cmpl $11, %r9d
  13575. vmovdqa 160(%rsi), %xmm7
  13576. jl L_AES_GCM_decrypt_avx2_aesenc_128_ghash_avx_done
  13577. vaesenc %xmm7, %xmm8, %xmm8
  13578. vaesenc %xmm7, %xmm9, %xmm9
  13579. vaesenc %xmm7, %xmm10, %xmm10
  13580. vaesenc %xmm7, %xmm11, %xmm11
  13581. vaesenc %xmm7, %xmm12, %xmm12
  13582. vaesenc %xmm7, %xmm13, %xmm13
  13583. vaesenc %xmm7, %xmm14, %xmm14
  13584. vaesenc %xmm7, %xmm15, %xmm15
  13585. vmovdqa 176(%rsi), %xmm7
  13586. vaesenc %xmm7, %xmm8, %xmm8
  13587. vaesenc %xmm7, %xmm9, %xmm9
  13588. vaesenc %xmm7, %xmm10, %xmm10
  13589. vaesenc %xmm7, %xmm11, %xmm11
  13590. vaesenc %xmm7, %xmm12, %xmm12
  13591. vaesenc %xmm7, %xmm13, %xmm13
  13592. vaesenc %xmm7, %xmm14, %xmm14
  13593. vaesenc %xmm7, %xmm15, %xmm15
  13594. cmpl $13, %r9d
  13595. vmovdqa 192(%rsi), %xmm7
  13596. jl L_AES_GCM_decrypt_avx2_aesenc_128_ghash_avx_done
  13597. vaesenc %xmm7, %xmm8, %xmm8
  13598. vaesenc %xmm7, %xmm9, %xmm9
  13599. vaesenc %xmm7, %xmm10, %xmm10
  13600. vaesenc %xmm7, %xmm11, %xmm11
  13601. vaesenc %xmm7, %xmm12, %xmm12
  13602. vaesenc %xmm7, %xmm13, %xmm13
  13603. vaesenc %xmm7, %xmm14, %xmm14
  13604. vaesenc %xmm7, %xmm15, %xmm15
  13605. vmovdqa 208(%rsi), %xmm7
  13606. vaesenc %xmm7, %xmm8, %xmm8
  13607. vaesenc %xmm7, %xmm9, %xmm9
  13608. vaesenc %xmm7, %xmm10, %xmm10
  13609. vaesenc %xmm7, %xmm11, %xmm11
  13610. vaesenc %xmm7, %xmm12, %xmm12
  13611. vaesenc %xmm7, %xmm13, %xmm13
  13612. vaesenc %xmm7, %xmm14, %xmm14
  13613. vaesenc %xmm7, %xmm15, %xmm15
  13614. vmovdqa 224(%rsi), %xmm7
  13615. L_AES_GCM_decrypt_avx2_aesenc_128_ghash_avx_done:
  13616. # aesenc_last
  13617. vaesenclast %xmm7, %xmm8, %xmm8
  13618. vaesenclast %xmm7, %xmm9, %xmm9
  13619. vaesenclast %xmm7, %xmm10, %xmm10
  13620. vaesenclast %xmm7, %xmm11, %xmm11
  13621. vmovdqu (%rcx), %xmm0
  13622. vmovdqu 16(%rcx), %xmm1
  13623. vmovdqu 32(%rcx), %xmm2
  13624. vmovdqu 48(%rcx), %xmm3
  13625. vpxor %xmm0, %xmm8, %xmm8
  13626. vpxor %xmm1, %xmm9, %xmm9
  13627. vpxor %xmm2, %xmm10, %xmm10
  13628. vpxor %xmm3, %xmm11, %xmm11
  13629. vmovdqu %xmm8, (%rdx)
  13630. vmovdqu %xmm9, 16(%rdx)
  13631. vmovdqu %xmm10, 32(%rdx)
  13632. vmovdqu %xmm11, 48(%rdx)
  13633. vaesenclast %xmm7, %xmm12, %xmm12
  13634. vaesenclast %xmm7, %xmm13, %xmm13
  13635. vaesenclast %xmm7, %xmm14, %xmm14
  13636. vaesenclast %xmm7, %xmm15, %xmm15
  13637. vmovdqu 64(%rcx), %xmm0
  13638. vmovdqu 80(%rcx), %xmm1
  13639. vmovdqu 96(%rcx), %xmm2
  13640. vmovdqu 112(%rcx), %xmm3
  13641. vpxor %xmm0, %xmm12, %xmm12
  13642. vpxor %xmm1, %xmm13, %xmm13
  13643. vpxor %xmm2, %xmm14, %xmm14
  13644. vpxor %xmm3, %xmm15, %xmm15
  13645. vmovdqu %xmm12, 64(%rdx)
  13646. vmovdqu %xmm13, 80(%rdx)
  13647. vmovdqu %xmm14, 96(%rdx)
  13648. vmovdqu %xmm15, 112(%rdx)
  13649. # aesenc_128_ghash - end
  13650. addl $0x80, %ebx
  13651. cmpl %r13d, %ebx
  13652. jl L_AES_GCM_decrypt_avx2_ghash_128
  13653. vmovdqa (%rsp), %xmm5
  13654. vmovdqa 128(%rsp), %xmm4
  13655. vmovdqa 144(%rsp), %xmm15
  13656. L_AES_GCM_decrypt_avx2_done_128:
  13657. cmpl %r10d, %ebx
  13658. jge L_AES_GCM_decrypt_avx2_done_dec
  13659. movl %r10d, %r13d
  13660. andl $0xfffffff0, %r13d
  13661. cmpl %r13d, %ebx
  13662. jge L_AES_GCM_decrypt_avx2_last_block_done
  13663. L_AES_GCM_decrypt_avx2_last_block_start:
  13664. vmovdqu (%rdi,%rbx,1), %xmm11
  13665. vpshufb L_avx2_aes_gcm_bswap_epi64(%rip), %xmm4, %xmm10
  13666. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm11, %xmm12
  13667. vpaddd L_avx2_aes_gcm_one(%rip), %xmm4, %xmm4
  13668. vpxor %xmm6, %xmm12, %xmm12
  13669. # aesenc_gfmul_sb
  13670. vpclmulqdq $0x01, %xmm5, %xmm12, %xmm2
  13671. vpclmulqdq $16, %xmm5, %xmm12, %xmm3
  13672. vpclmulqdq $0x00, %xmm5, %xmm12, %xmm1
  13673. vpclmulqdq $0x11, %xmm5, %xmm12, %xmm8
  13674. vpxor (%rsi), %xmm10, %xmm10
  13675. vaesenc 16(%rsi), %xmm10, %xmm10
  13676. vpxor %xmm2, %xmm3, %xmm3
  13677. vpslldq $8, %xmm3, %xmm2
  13678. vpsrldq $8, %xmm3, %xmm3
  13679. vaesenc 32(%rsi), %xmm10, %xmm10
  13680. vpxor %xmm1, %xmm2, %xmm2
  13681. vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm2, %xmm1
  13682. vaesenc 48(%rsi), %xmm10, %xmm10
  13683. vaesenc 64(%rsi), %xmm10, %xmm10
  13684. vaesenc 80(%rsi), %xmm10, %xmm10
  13685. vpshufd $0x4e, %xmm2, %xmm2
  13686. vpxor %xmm1, %xmm2, %xmm2
  13687. vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm2, %xmm1
  13688. vaesenc 96(%rsi), %xmm10, %xmm10
  13689. vaesenc 112(%rsi), %xmm10, %xmm10
  13690. vaesenc 128(%rsi), %xmm10, %xmm10
  13691. vpshufd $0x4e, %xmm2, %xmm2
  13692. vaesenc 144(%rsi), %xmm10, %xmm10
  13693. vpxor %xmm3, %xmm8, %xmm8
  13694. vpxor %xmm8, %xmm2, %xmm2
  13695. vmovdqa 160(%rsi), %xmm0
  13696. cmpl $11, %r9d
  13697. jl L_AES_GCM_decrypt_avx2_aesenc_gfmul_sb_last
  13698. vaesenc %xmm0, %xmm10, %xmm10
  13699. vaesenc 176(%rsi), %xmm10, %xmm10
  13700. vmovdqa 192(%rsi), %xmm0
  13701. cmpl $13, %r9d
  13702. jl L_AES_GCM_decrypt_avx2_aesenc_gfmul_sb_last
  13703. vaesenc %xmm0, %xmm10, %xmm10
  13704. vaesenc 208(%rsi), %xmm10, %xmm10
  13705. vmovdqa 224(%rsi), %xmm0
  13706. L_AES_GCM_decrypt_avx2_aesenc_gfmul_sb_last:
  13707. vaesenclast %xmm0, %xmm10, %xmm10
  13708. vpxor %xmm1, %xmm2, %xmm6
  13709. vpxor %xmm11, %xmm10, %xmm10
  13710. vmovdqu %xmm10, (%r8,%rbx,1)
  13711. addl $16, %ebx
  13712. cmpl %r13d, %ebx
  13713. jl L_AES_GCM_decrypt_avx2_last_block_start
  13714. L_AES_GCM_decrypt_avx2_last_block_done:
  13715. movl %r10d, %ecx
  13716. movl %r10d, %edx
  13717. andl $15, %ecx
  13718. jz L_AES_GCM_decrypt_avx2_done_dec
  13719. # aesenc_last15_dec
  13720. vpshufb L_avx2_aes_gcm_bswap_epi64(%rip), %xmm4, %xmm4
  13721. vpxor (%rsi), %xmm4, %xmm4
  13722. vaesenc 16(%rsi), %xmm4, %xmm4
  13723. vaesenc 32(%rsi), %xmm4, %xmm4
  13724. vaesenc 48(%rsi), %xmm4, %xmm4
  13725. vaesenc 64(%rsi), %xmm4, %xmm4
  13726. vaesenc 80(%rsi), %xmm4, %xmm4
  13727. vaesenc 96(%rsi), %xmm4, %xmm4
  13728. vaesenc 112(%rsi), %xmm4, %xmm4
  13729. vaesenc 128(%rsi), %xmm4, %xmm4
  13730. vaesenc 144(%rsi), %xmm4, %xmm4
  13731. cmpl $11, %r9d
  13732. vmovdqa 160(%rsi), %xmm1
  13733. jl L_AES_GCM_decrypt_avx2_aesenc_last15_dec_avx_aesenc_avx_last
  13734. vaesenc %xmm1, %xmm4, %xmm4
  13735. vaesenc 176(%rsi), %xmm4, %xmm4
  13736. cmpl $13, %r9d
  13737. vmovdqa 192(%rsi), %xmm1
  13738. jl L_AES_GCM_decrypt_avx2_aesenc_last15_dec_avx_aesenc_avx_last
  13739. vaesenc %xmm1, %xmm4, %xmm4
  13740. vaesenc 208(%rsi), %xmm4, %xmm4
  13741. vmovdqa 224(%rsi), %xmm1
  13742. L_AES_GCM_decrypt_avx2_aesenc_last15_dec_avx_aesenc_avx_last:
  13743. vaesenclast %xmm1, %xmm4, %xmm4
  13744. xorl %ecx, %ecx
  13745. vpxor %xmm0, %xmm0, %xmm0
  13746. vmovdqu %xmm4, (%rsp)
  13747. vmovdqu %xmm0, 16(%rsp)
  13748. L_AES_GCM_decrypt_avx2_aesenc_last15_dec_avx_loop:
  13749. movzbl (%rdi,%rbx,1), %r13d
  13750. movb %r13b, 16(%rsp,%rcx,1)
  13751. xorb (%rsp,%rcx,1), %r13b
  13752. movb %r13b, (%r8,%rbx,1)
  13753. incl %ebx
  13754. incl %ecx
  13755. cmpl %edx, %ebx
  13756. jl L_AES_GCM_decrypt_avx2_aesenc_last15_dec_avx_loop
  13757. vmovdqu 16(%rsp), %xmm4
  13758. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm4, %xmm4
  13759. vpxor %xmm4, %xmm6, %xmm6
  13760. # ghash_gfmul_red
  13761. vpclmulqdq $16, %xmm5, %xmm6, %xmm2
  13762. vpclmulqdq $0x01, %xmm5, %xmm6, %xmm1
  13763. vpclmulqdq $0x00, %xmm5, %xmm6, %xmm0
  13764. vpxor %xmm1, %xmm2, %xmm2
  13765. vpslldq $8, %xmm2, %xmm1
  13766. vpsrldq $8, %xmm2, %xmm2
  13767. vpxor %xmm0, %xmm1, %xmm1
  13768. vpclmulqdq $0x11, %xmm5, %xmm6, %xmm6
  13769. vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm1, %xmm0
  13770. vpshufd $0x4e, %xmm1, %xmm1
  13771. vpxor %xmm0, %xmm1, %xmm1
  13772. vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm1, %xmm0
  13773. vpshufd $0x4e, %xmm1, %xmm1
  13774. vpxor %xmm2, %xmm6, %xmm6
  13775. vpxor %xmm1, %xmm6, %xmm6
  13776. vpxor %xmm0, %xmm6, %xmm6
  13777. L_AES_GCM_decrypt_avx2_done_dec:
  13778. # calc_tag
  13779. shlq $3, %r10
  13780. vpinsrq $0x00, %r10, %xmm0, %xmm0
  13781. shlq $3, %r11
  13782. vpinsrq $0x01, %r11, %xmm1, %xmm1
  13783. vpblendd $12, %xmm1, %xmm0, %xmm0
  13784. vpxor %xmm6, %xmm0, %xmm0
  13785. # ghash_gfmul_red
  13786. vpclmulqdq $16, %xmm5, %xmm0, %xmm4
  13787. vpclmulqdq $0x01, %xmm5, %xmm0, %xmm3
  13788. vpclmulqdq $0x00, %xmm5, %xmm0, %xmm2
  13789. vpxor %xmm3, %xmm4, %xmm4
  13790. vpslldq $8, %xmm4, %xmm3
  13791. vpsrldq $8, %xmm4, %xmm4
  13792. vpxor %xmm2, %xmm3, %xmm3
  13793. vpclmulqdq $0x11, %xmm5, %xmm0, %xmm0
  13794. vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm3, %xmm2
  13795. vpshufd $0x4e, %xmm3, %xmm3
  13796. vpxor %xmm2, %xmm3, %xmm3
  13797. vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm3, %xmm2
  13798. vpshufd $0x4e, %xmm3, %xmm3
  13799. vpxor %xmm4, %xmm0, %xmm0
  13800. vpxor %xmm3, %xmm0, %xmm0
  13801. vpxor %xmm2, %xmm0, %xmm0
  13802. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  13803. vpxor %xmm15, %xmm0, %xmm0
  13804. # cmp_tag
  13805. cmpl $16, %r15d
  13806. je L_AES_GCM_decrypt_avx2_cmp_tag_16
  13807. xorq %rdx, %rdx
  13808. xorq %rax, %rax
  13809. vmovdqu %xmm0, (%rsp)
  13810. L_AES_GCM_decrypt_avx2_cmp_tag_loop:
  13811. movzbl (%rsp,%rdx,1), %r13d
  13812. xorb (%r14,%rdx,1), %r13b
  13813. orb %r13b, %al
  13814. incl %edx
  13815. cmpl %r15d, %edx
  13816. jne L_AES_GCM_decrypt_avx2_cmp_tag_loop
  13817. cmpb $0x00, %al
  13818. sete %al
  13819. jmp L_AES_GCM_decrypt_avx2_cmp_tag_done
  13820. L_AES_GCM_decrypt_avx2_cmp_tag_16:
  13821. vmovdqu (%r14), %xmm1
  13822. vpcmpeqb %xmm1, %xmm0, %xmm0
  13823. vpmovmskb %xmm0, %rdx
  13824. # %%edx == 0xFFFF then return 1 else => return 0
  13825. xorl %eax, %eax
  13826. cmpl $0xffff, %edx
  13827. sete %al
  13828. L_AES_GCM_decrypt_avx2_cmp_tag_done:
  13829. movl %eax, (%rbp)
  13830. vzeroupper
  13831. addq $0xa8, %rsp
  13832. popq %rbp
  13833. popq %r15
  13834. popq %rbx
  13835. popq %r14
  13836. popq %r12
  13837. popq %r13
  13838. repz retq
  13839. #ifndef __APPLE__
  13840. .size AES_GCM_decrypt_avx2,.-AES_GCM_decrypt_avx2
  13841. #endif /* __APPLE__ */
  13842. #ifdef WOLFSSL_AESGCM_STREAM
  13843. #ifndef __APPLE__
  13844. .text
  13845. .globl AES_GCM_init_avx2
  13846. .type AES_GCM_init_avx2,@function
  13847. .align 16
  13848. AES_GCM_init_avx2:
  13849. #else
  13850. .section __TEXT,__text
  13851. .globl _AES_GCM_init_avx2
  13852. .p2align 4
  13853. _AES_GCM_init_avx2:
  13854. #endif /* __APPLE__ */
  13855. pushq %rbx
  13856. pushq %r12
  13857. movq %rdx, %r10
  13858. movl %ecx, %r11d
  13859. movq 24(%rsp), %rax
  13860. subq $16, %rsp
  13861. vpxor %xmm4, %xmm4, %xmm4
  13862. movl %r11d, %edx
  13863. cmpl $12, %edx
  13864. je L_AES_GCM_init_avx2_iv_12
  13865. # Calculate values when IV is not 12 bytes
  13866. # H = Encrypt X(=0)
  13867. vmovdqa (%rdi), %xmm5
  13868. vaesenc 16(%rdi), %xmm5, %xmm5
  13869. vaesenc 32(%rdi), %xmm5, %xmm5
  13870. vaesenc 48(%rdi), %xmm5, %xmm5
  13871. vaesenc 64(%rdi), %xmm5, %xmm5
  13872. vaesenc 80(%rdi), %xmm5, %xmm5
  13873. vaesenc 96(%rdi), %xmm5, %xmm5
  13874. vaesenc 112(%rdi), %xmm5, %xmm5
  13875. vaesenc 128(%rdi), %xmm5, %xmm5
  13876. vaesenc 144(%rdi), %xmm5, %xmm5
  13877. cmpl $11, %esi
  13878. vmovdqa 160(%rdi), %xmm0
  13879. jl L_AES_GCM_init_avx2_calc_iv_1_aesenc_avx_last
  13880. vaesenc %xmm0, %xmm5, %xmm5
  13881. vaesenc 176(%rdi), %xmm5, %xmm5
  13882. cmpl $13, %esi
  13883. vmovdqa 192(%rdi), %xmm0
  13884. jl L_AES_GCM_init_avx2_calc_iv_1_aesenc_avx_last
  13885. vaesenc %xmm0, %xmm5, %xmm5
  13886. vaesenc 208(%rdi), %xmm5, %xmm5
  13887. vmovdqa 224(%rdi), %xmm0
  13888. L_AES_GCM_init_avx2_calc_iv_1_aesenc_avx_last:
  13889. vaesenclast %xmm0, %xmm5, %xmm5
  13890. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm5, %xmm5
  13891. # Calc counter
  13892. # Initialization vector
  13893. cmpl $0x00, %edx
  13894. movq $0x00, %rcx
  13895. je L_AES_GCM_init_avx2_calc_iv_done
  13896. cmpl $16, %edx
  13897. jl L_AES_GCM_init_avx2_calc_iv_lt16
  13898. andl $0xfffffff0, %edx
  13899. L_AES_GCM_init_avx2_calc_iv_16_loop:
  13900. vmovdqu (%r10,%rcx,1), %xmm0
  13901. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  13902. vpxor %xmm0, %xmm4, %xmm4
  13903. # ghash_gfmul_avx
  13904. vpclmulqdq $16, %xmm4, %xmm5, %xmm2
  13905. vpclmulqdq $0x01, %xmm4, %xmm5, %xmm1
  13906. vpclmulqdq $0x00, %xmm4, %xmm5, %xmm0
  13907. vpclmulqdq $0x11, %xmm4, %xmm5, %xmm3
  13908. vpxor %xmm1, %xmm2, %xmm2
  13909. vpslldq $8, %xmm2, %xmm1
  13910. vpsrldq $8, %xmm2, %xmm2
  13911. vpxor %xmm1, %xmm0, %xmm6
  13912. vpxor %xmm2, %xmm3, %xmm4
  13913. # ghash_mid
  13914. vpsrld $31, %xmm6, %xmm0
  13915. vpsrld $31, %xmm4, %xmm1
  13916. vpslld $0x01, %xmm6, %xmm6
  13917. vpslld $0x01, %xmm4, %xmm4
  13918. vpsrldq $12, %xmm0, %xmm2
  13919. vpslldq $4, %xmm0, %xmm0
  13920. vpslldq $4, %xmm1, %xmm1
  13921. vpor %xmm2, %xmm4, %xmm4
  13922. vpor %xmm0, %xmm6, %xmm6
  13923. vpor %xmm1, %xmm4, %xmm4
  13924. # ghash_red
  13925. vmovdqa L_avx2_aes_gcm_mod2_128(%rip), %xmm2
  13926. vpclmulqdq $16, %xmm2, %xmm6, %xmm0
  13927. vpshufd $0x4e, %xmm6, %xmm1
  13928. vpxor %xmm0, %xmm1, %xmm1
  13929. vpclmulqdq $16, %xmm2, %xmm1, %xmm0
  13930. vpshufd $0x4e, %xmm1, %xmm1
  13931. vpxor %xmm0, %xmm1, %xmm1
  13932. vpxor %xmm1, %xmm4, %xmm4
  13933. addl $16, %ecx
  13934. cmpl %edx, %ecx
  13935. jl L_AES_GCM_init_avx2_calc_iv_16_loop
  13936. movl %r11d, %edx
  13937. cmpl %edx, %ecx
  13938. je L_AES_GCM_init_avx2_calc_iv_done
  13939. L_AES_GCM_init_avx2_calc_iv_lt16:
  13940. vpxor %xmm0, %xmm0, %xmm0
  13941. xorl %ebx, %ebx
  13942. vmovdqu %xmm0, (%rsp)
  13943. L_AES_GCM_init_avx2_calc_iv_loop:
  13944. movzbl (%r10,%rcx,1), %r12d
  13945. movb %r12b, (%rsp,%rbx,1)
  13946. incl %ecx
  13947. incl %ebx
  13948. cmpl %edx, %ecx
  13949. jl L_AES_GCM_init_avx2_calc_iv_loop
  13950. vmovdqu (%rsp), %xmm0
  13951. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  13952. vpxor %xmm0, %xmm4, %xmm4
  13953. # ghash_gfmul_avx
  13954. vpclmulqdq $16, %xmm4, %xmm5, %xmm2
  13955. vpclmulqdq $0x01, %xmm4, %xmm5, %xmm1
  13956. vpclmulqdq $0x00, %xmm4, %xmm5, %xmm0
  13957. vpclmulqdq $0x11, %xmm4, %xmm5, %xmm3
  13958. vpxor %xmm1, %xmm2, %xmm2
  13959. vpslldq $8, %xmm2, %xmm1
  13960. vpsrldq $8, %xmm2, %xmm2
  13961. vpxor %xmm1, %xmm0, %xmm6
  13962. vpxor %xmm2, %xmm3, %xmm4
  13963. # ghash_mid
  13964. vpsrld $31, %xmm6, %xmm0
  13965. vpsrld $31, %xmm4, %xmm1
  13966. vpslld $0x01, %xmm6, %xmm6
  13967. vpslld $0x01, %xmm4, %xmm4
  13968. vpsrldq $12, %xmm0, %xmm2
  13969. vpslldq $4, %xmm0, %xmm0
  13970. vpslldq $4, %xmm1, %xmm1
  13971. vpor %xmm2, %xmm4, %xmm4
  13972. vpor %xmm0, %xmm6, %xmm6
  13973. vpor %xmm1, %xmm4, %xmm4
  13974. # ghash_red
  13975. vmovdqa L_avx2_aes_gcm_mod2_128(%rip), %xmm2
  13976. vpclmulqdq $16, %xmm2, %xmm6, %xmm0
  13977. vpshufd $0x4e, %xmm6, %xmm1
  13978. vpxor %xmm0, %xmm1, %xmm1
  13979. vpclmulqdq $16, %xmm2, %xmm1, %xmm0
  13980. vpshufd $0x4e, %xmm1, %xmm1
  13981. vpxor %xmm0, %xmm1, %xmm1
  13982. vpxor %xmm1, %xmm4, %xmm4
  13983. L_AES_GCM_init_avx2_calc_iv_done:
  13984. # T = Encrypt counter
  13985. vpxor %xmm0, %xmm0, %xmm0
  13986. shll $3, %edx
  13987. vpinsrq $0x00, %rdx, %xmm0, %xmm0
  13988. vpxor %xmm0, %xmm4, %xmm4
  13989. # ghash_gfmul_avx
  13990. vpclmulqdq $16, %xmm4, %xmm5, %xmm2
  13991. vpclmulqdq $0x01, %xmm4, %xmm5, %xmm1
  13992. vpclmulqdq $0x00, %xmm4, %xmm5, %xmm0
  13993. vpclmulqdq $0x11, %xmm4, %xmm5, %xmm3
  13994. vpxor %xmm1, %xmm2, %xmm2
  13995. vpslldq $8, %xmm2, %xmm1
  13996. vpsrldq $8, %xmm2, %xmm2
  13997. vpxor %xmm1, %xmm0, %xmm6
  13998. vpxor %xmm2, %xmm3, %xmm4
  13999. # ghash_mid
  14000. vpsrld $31, %xmm6, %xmm0
  14001. vpsrld $31, %xmm4, %xmm1
  14002. vpslld $0x01, %xmm6, %xmm6
  14003. vpslld $0x01, %xmm4, %xmm4
  14004. vpsrldq $12, %xmm0, %xmm2
  14005. vpslldq $4, %xmm0, %xmm0
  14006. vpslldq $4, %xmm1, %xmm1
  14007. vpor %xmm2, %xmm4, %xmm4
  14008. vpor %xmm0, %xmm6, %xmm6
  14009. vpor %xmm1, %xmm4, %xmm4
  14010. # ghash_red
  14011. vmovdqa L_avx2_aes_gcm_mod2_128(%rip), %xmm2
  14012. vpclmulqdq $16, %xmm2, %xmm6, %xmm0
  14013. vpshufd $0x4e, %xmm6, %xmm1
  14014. vpxor %xmm0, %xmm1, %xmm1
  14015. vpclmulqdq $16, %xmm2, %xmm1, %xmm0
  14016. vpshufd $0x4e, %xmm1, %xmm1
  14017. vpxor %xmm0, %xmm1, %xmm1
  14018. vpxor %xmm1, %xmm4, %xmm4
  14019. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm4, %xmm4
  14020. # Encrypt counter
  14021. vmovdqa (%rdi), %xmm7
  14022. vpxor %xmm4, %xmm7, %xmm7
  14023. vaesenc 16(%rdi), %xmm7, %xmm7
  14024. vaesenc 32(%rdi), %xmm7, %xmm7
  14025. vaesenc 48(%rdi), %xmm7, %xmm7
  14026. vaesenc 64(%rdi), %xmm7, %xmm7
  14027. vaesenc 80(%rdi), %xmm7, %xmm7
  14028. vaesenc 96(%rdi), %xmm7, %xmm7
  14029. vaesenc 112(%rdi), %xmm7, %xmm7
  14030. vaesenc 128(%rdi), %xmm7, %xmm7
  14031. vaesenc 144(%rdi), %xmm7, %xmm7
  14032. cmpl $11, %esi
  14033. vmovdqa 160(%rdi), %xmm0
  14034. jl L_AES_GCM_init_avx2_calc_iv_2_aesenc_avx_last
  14035. vaesenc %xmm0, %xmm7, %xmm7
  14036. vaesenc 176(%rdi), %xmm7, %xmm7
  14037. cmpl $13, %esi
  14038. vmovdqa 192(%rdi), %xmm0
  14039. jl L_AES_GCM_init_avx2_calc_iv_2_aesenc_avx_last
  14040. vaesenc %xmm0, %xmm7, %xmm7
  14041. vaesenc 208(%rdi), %xmm7, %xmm7
  14042. vmovdqa 224(%rdi), %xmm0
  14043. L_AES_GCM_init_avx2_calc_iv_2_aesenc_avx_last:
  14044. vaesenclast %xmm0, %xmm7, %xmm7
  14045. jmp L_AES_GCM_init_avx2_iv_done
  14046. L_AES_GCM_init_avx2_iv_12:
  14047. # # Calculate values when IV is 12 bytes
  14048. # Set counter based on IV
  14049. vmovdqa L_avx2_aes_gcm_bswap_one(%rip), %xmm4
  14050. vmovdqa (%rdi), %xmm5
  14051. vpblendd $7, (%r10), %xmm4, %xmm4
  14052. # H = Encrypt X(=0) and T = Encrypt counter
  14053. vmovdqa 16(%rdi), %xmm6
  14054. vpxor %xmm5, %xmm4, %xmm7
  14055. vaesenc %xmm6, %xmm5, %xmm5
  14056. vaesenc %xmm6, %xmm7, %xmm7
  14057. vmovdqa 32(%rdi), %xmm0
  14058. vaesenc %xmm0, %xmm5, %xmm5
  14059. vaesenc %xmm0, %xmm7, %xmm7
  14060. vmovdqa 48(%rdi), %xmm0
  14061. vaesenc %xmm0, %xmm5, %xmm5
  14062. vaesenc %xmm0, %xmm7, %xmm7
  14063. vmovdqa 64(%rdi), %xmm0
  14064. vaesenc %xmm0, %xmm5, %xmm5
  14065. vaesenc %xmm0, %xmm7, %xmm7
  14066. vmovdqa 80(%rdi), %xmm0
  14067. vaesenc %xmm0, %xmm5, %xmm5
  14068. vaesenc %xmm0, %xmm7, %xmm7
  14069. vmovdqa 96(%rdi), %xmm0
  14070. vaesenc %xmm0, %xmm5, %xmm5
  14071. vaesenc %xmm0, %xmm7, %xmm7
  14072. vmovdqa 112(%rdi), %xmm0
  14073. vaesenc %xmm0, %xmm5, %xmm5
  14074. vaesenc %xmm0, %xmm7, %xmm7
  14075. vmovdqa 128(%rdi), %xmm0
  14076. vaesenc %xmm0, %xmm5, %xmm5
  14077. vaesenc %xmm0, %xmm7, %xmm7
  14078. vmovdqa 144(%rdi), %xmm0
  14079. vaesenc %xmm0, %xmm5, %xmm5
  14080. vaesenc %xmm0, %xmm7, %xmm7
  14081. cmpl $11, %esi
  14082. vmovdqa 160(%rdi), %xmm0
  14083. jl L_AES_GCM_init_avx2_calc_iv_12_last
  14084. vaesenc %xmm0, %xmm5, %xmm5
  14085. vaesenc %xmm0, %xmm7, %xmm7
  14086. vmovdqa 176(%rdi), %xmm0
  14087. vaesenc %xmm0, %xmm5, %xmm5
  14088. vaesenc %xmm0, %xmm7, %xmm7
  14089. cmpl $13, %esi
  14090. vmovdqa 192(%rdi), %xmm0
  14091. jl L_AES_GCM_init_avx2_calc_iv_12_last
  14092. vaesenc %xmm0, %xmm5, %xmm5
  14093. vaesenc %xmm0, %xmm7, %xmm7
  14094. vmovdqa 208(%rdi), %xmm0
  14095. vaesenc %xmm0, %xmm5, %xmm5
  14096. vaesenc %xmm0, %xmm7, %xmm7
  14097. vmovdqa 224(%rdi), %xmm0
  14098. L_AES_GCM_init_avx2_calc_iv_12_last:
  14099. vaesenclast %xmm0, %xmm5, %xmm5
  14100. vaesenclast %xmm0, %xmm7, %xmm7
  14101. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm5, %xmm5
  14102. L_AES_GCM_init_avx2_iv_done:
  14103. vmovdqa %xmm7, (%rax)
  14104. vpshufb L_avx2_aes_gcm_bswap_epi64(%rip), %xmm4, %xmm4
  14105. vpaddd L_avx2_aes_gcm_one(%rip), %xmm4, %xmm4
  14106. vmovdqa %xmm5, (%r8)
  14107. vmovdqa %xmm4, (%r9)
  14108. vzeroupper
  14109. addq $16, %rsp
  14110. popq %r12
  14111. popq %rbx
  14112. repz retq
  14113. #ifndef __APPLE__
  14114. .size AES_GCM_init_avx2,.-AES_GCM_init_avx2
  14115. #endif /* __APPLE__ */
  14116. #ifndef __APPLE__
  14117. .text
  14118. .globl AES_GCM_aad_update_avx2
  14119. .type AES_GCM_aad_update_avx2,@function
  14120. .align 16
  14121. AES_GCM_aad_update_avx2:
  14122. #else
  14123. .section __TEXT,__text
  14124. .globl _AES_GCM_aad_update_avx2
  14125. .p2align 4
  14126. _AES_GCM_aad_update_avx2:
  14127. #endif /* __APPLE__ */
  14128. movq %rcx, %rax
  14129. vmovdqa (%rdx), %xmm4
  14130. vmovdqa (%rax), %xmm5
  14131. xorl %ecx, %ecx
  14132. L_AES_GCM_aad_update_avx2_16_loop:
  14133. vmovdqu (%rdi,%rcx,1), %xmm0
  14134. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  14135. vpxor %xmm0, %xmm4, %xmm4
  14136. # ghash_gfmul_avx
  14137. vpclmulqdq $16, %xmm4, %xmm5, %xmm2
  14138. vpclmulqdq $0x01, %xmm4, %xmm5, %xmm1
  14139. vpclmulqdq $0x00, %xmm4, %xmm5, %xmm0
  14140. vpclmulqdq $0x11, %xmm4, %xmm5, %xmm3
  14141. vpxor %xmm1, %xmm2, %xmm2
  14142. vpslldq $8, %xmm2, %xmm1
  14143. vpsrldq $8, %xmm2, %xmm2
  14144. vpxor %xmm1, %xmm0, %xmm6
  14145. vpxor %xmm2, %xmm3, %xmm4
  14146. # ghash_mid
  14147. vpsrld $31, %xmm6, %xmm0
  14148. vpsrld $31, %xmm4, %xmm1
  14149. vpslld $0x01, %xmm6, %xmm6
  14150. vpslld $0x01, %xmm4, %xmm4
  14151. vpsrldq $12, %xmm0, %xmm2
  14152. vpslldq $4, %xmm0, %xmm0
  14153. vpslldq $4, %xmm1, %xmm1
  14154. vpor %xmm2, %xmm4, %xmm4
  14155. vpor %xmm0, %xmm6, %xmm6
  14156. vpor %xmm1, %xmm4, %xmm4
  14157. # ghash_red
  14158. vmovdqa L_avx2_aes_gcm_mod2_128(%rip), %xmm2
  14159. vpclmulqdq $16, %xmm2, %xmm6, %xmm0
  14160. vpshufd $0x4e, %xmm6, %xmm1
  14161. vpxor %xmm0, %xmm1, %xmm1
  14162. vpclmulqdq $16, %xmm2, %xmm1, %xmm0
  14163. vpshufd $0x4e, %xmm1, %xmm1
  14164. vpxor %xmm0, %xmm1, %xmm1
  14165. vpxor %xmm1, %xmm4, %xmm4
  14166. addl $16, %ecx
  14167. cmpl %esi, %ecx
  14168. jl L_AES_GCM_aad_update_avx2_16_loop
  14169. vmovdqa %xmm4, (%rdx)
  14170. vzeroupper
  14171. repz retq
  14172. #ifndef __APPLE__
  14173. .size AES_GCM_aad_update_avx2,.-AES_GCM_aad_update_avx2
  14174. #endif /* __APPLE__ */
  14175. #ifndef __APPLE__
  14176. .text
  14177. .globl AES_GCM_encrypt_block_avx2
  14178. .type AES_GCM_encrypt_block_avx2,@function
  14179. .align 16
  14180. AES_GCM_encrypt_block_avx2:
  14181. #else
  14182. .section __TEXT,__text
  14183. .globl _AES_GCM_encrypt_block_avx2
  14184. .p2align 4
  14185. _AES_GCM_encrypt_block_avx2:
  14186. #endif /* __APPLE__ */
  14187. movq %rdx, %r10
  14188. movq %rcx, %r11
  14189. subq $0x98, %rsp
  14190. vmovdqa (%r8), %xmm3
  14191. # aesenc_block
  14192. vmovdqa %xmm3, %xmm1
  14193. vpshufb L_avx2_aes_gcm_bswap_epi64(%rip), %xmm1, %xmm0
  14194. vpaddd L_avx2_aes_gcm_one(%rip), %xmm1, %xmm1
  14195. vpxor (%rdi), %xmm0, %xmm0
  14196. vmovdqa 16(%rdi), %xmm2
  14197. vaesenc %xmm2, %xmm0, %xmm0
  14198. vmovdqa 32(%rdi), %xmm2
  14199. vaesenc %xmm2, %xmm0, %xmm0
  14200. vmovdqa 48(%rdi), %xmm2
  14201. vaesenc %xmm2, %xmm0, %xmm0
  14202. vmovdqa 64(%rdi), %xmm2
  14203. vaesenc %xmm2, %xmm0, %xmm0
  14204. vmovdqa 80(%rdi), %xmm2
  14205. vaesenc %xmm2, %xmm0, %xmm0
  14206. vmovdqa 96(%rdi), %xmm2
  14207. vaesenc %xmm2, %xmm0, %xmm0
  14208. vmovdqa 112(%rdi), %xmm2
  14209. vaesenc %xmm2, %xmm0, %xmm0
  14210. vmovdqa 128(%rdi), %xmm2
  14211. vaesenc %xmm2, %xmm0, %xmm0
  14212. vmovdqa 144(%rdi), %xmm2
  14213. vaesenc %xmm2, %xmm0, %xmm0
  14214. vmovdqa %xmm1, %xmm3
  14215. cmpl $11, %esi
  14216. vmovdqa 160(%rdi), %xmm1
  14217. jl L_AES_GCM_encrypt_block_avx2_aesenc_block_last
  14218. vaesenc %xmm1, %xmm0, %xmm0
  14219. vmovdqa 176(%rdi), %xmm2
  14220. vaesenc %xmm2, %xmm0, %xmm0
  14221. cmpl $13, %esi
  14222. vmovdqa 192(%rdi), %xmm1
  14223. jl L_AES_GCM_encrypt_block_avx2_aesenc_block_last
  14224. vaesenc %xmm1, %xmm0, %xmm0
  14225. vmovdqa 208(%rdi), %xmm2
  14226. vaesenc %xmm2, %xmm0, %xmm0
  14227. vmovdqa 224(%rdi), %xmm1
  14228. L_AES_GCM_encrypt_block_avx2_aesenc_block_last:
  14229. vaesenclast %xmm1, %xmm0, %xmm0
  14230. vmovdqu (%r11), %xmm1
  14231. vpxor %xmm1, %xmm0, %xmm0
  14232. vmovdqu %xmm0, (%r10)
  14233. vmovdqa %xmm3, (%r8)
  14234. vzeroupper
  14235. addq $0x98, %rsp
  14236. repz retq
  14237. #ifndef __APPLE__
  14238. .size AES_GCM_encrypt_block_avx2,.-AES_GCM_encrypt_block_avx2
  14239. #endif /* __APPLE__ */
  14240. #ifndef __APPLE__
  14241. .text
  14242. .globl AES_GCM_ghash_block_avx2
  14243. .type AES_GCM_ghash_block_avx2,@function
  14244. .align 16
  14245. AES_GCM_ghash_block_avx2:
  14246. #else
  14247. .section __TEXT,__text
  14248. .globl _AES_GCM_ghash_block_avx2
  14249. .p2align 4
  14250. _AES_GCM_ghash_block_avx2:
  14251. #endif /* __APPLE__ */
  14252. vmovdqa (%rsi), %xmm4
  14253. vmovdqa (%rdx), %xmm5
  14254. vmovdqu (%rdi), %xmm0
  14255. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  14256. vpxor %xmm0, %xmm4, %xmm4
  14257. # ghash_gfmul_avx
  14258. vpclmulqdq $16, %xmm4, %xmm5, %xmm2
  14259. vpclmulqdq $0x01, %xmm4, %xmm5, %xmm1
  14260. vpclmulqdq $0x00, %xmm4, %xmm5, %xmm0
  14261. vpclmulqdq $0x11, %xmm4, %xmm5, %xmm3
  14262. vpxor %xmm1, %xmm2, %xmm2
  14263. vpslldq $8, %xmm2, %xmm1
  14264. vpsrldq $8, %xmm2, %xmm2
  14265. vpxor %xmm1, %xmm0, %xmm6
  14266. vpxor %xmm2, %xmm3, %xmm4
  14267. # ghash_mid
  14268. vpsrld $31, %xmm6, %xmm0
  14269. vpsrld $31, %xmm4, %xmm1
  14270. vpslld $0x01, %xmm6, %xmm6
  14271. vpslld $0x01, %xmm4, %xmm4
  14272. vpsrldq $12, %xmm0, %xmm2
  14273. vpslldq $4, %xmm0, %xmm0
  14274. vpslldq $4, %xmm1, %xmm1
  14275. vpor %xmm2, %xmm4, %xmm4
  14276. vpor %xmm0, %xmm6, %xmm6
  14277. vpor %xmm1, %xmm4, %xmm4
  14278. # ghash_red
  14279. vmovdqa L_avx2_aes_gcm_mod2_128(%rip), %xmm2
  14280. vpclmulqdq $16, %xmm2, %xmm6, %xmm0
  14281. vpshufd $0x4e, %xmm6, %xmm1
  14282. vpxor %xmm0, %xmm1, %xmm1
  14283. vpclmulqdq $16, %xmm2, %xmm1, %xmm0
  14284. vpshufd $0x4e, %xmm1, %xmm1
  14285. vpxor %xmm0, %xmm1, %xmm1
  14286. vpxor %xmm1, %xmm4, %xmm4
  14287. vmovdqa %xmm4, (%rsi)
  14288. vzeroupper
  14289. repz retq
  14290. #ifndef __APPLE__
  14291. .size AES_GCM_ghash_block_avx2,.-AES_GCM_ghash_block_avx2
  14292. #endif /* __APPLE__ */
  14293. #ifndef __APPLE__
  14294. .text
  14295. .globl AES_GCM_encrypt_update_avx2
  14296. .type AES_GCM_encrypt_update_avx2,@function
  14297. .align 16
  14298. AES_GCM_encrypt_update_avx2:
  14299. #else
  14300. .section __TEXT,__text
  14301. .globl _AES_GCM_encrypt_update_avx2
  14302. .p2align 4
  14303. _AES_GCM_encrypt_update_avx2:
  14304. #endif /* __APPLE__ */
  14305. pushq %r12
  14306. pushq %r13
  14307. pushq %r14
  14308. movq %rdx, %r10
  14309. movq %rcx, %r11
  14310. movq 32(%rsp), %rax
  14311. movq 40(%rsp), %r12
  14312. subq $0x98, %rsp
  14313. vmovdqa (%r9), %xmm6
  14314. vmovdqa (%rax), %xmm5
  14315. vmovdqa (%r12), %xmm4
  14316. vpsrlq $63, %xmm5, %xmm1
  14317. vpsllq $0x01, %xmm5, %xmm0
  14318. vpslldq $8, %xmm1, %xmm1
  14319. vpor %xmm1, %xmm0, %xmm0
  14320. vpshufd $0xff, %xmm5, %xmm5
  14321. vpsrad $31, %xmm5, %xmm5
  14322. vpand L_avx2_aes_gcm_mod2_128(%rip), %xmm5, %xmm5
  14323. vpxor %xmm0, %xmm5, %xmm5
  14324. xorl %r14d, %r14d
  14325. cmpl $0x80, %r8d
  14326. movl %r8d, %r13d
  14327. jl L_AES_GCM_encrypt_update_avx2_done_128
  14328. andl $0xffffff80, %r13d
  14329. vmovdqa %xmm4, 128(%rsp)
  14330. vmovdqa L_avx2_aes_gcm_mod2_128(%rip), %xmm3
  14331. # H ^ 1 and H ^ 2
  14332. vpclmulqdq $0x00, %xmm5, %xmm5, %xmm9
  14333. vpclmulqdq $0x11, %xmm5, %xmm5, %xmm10
  14334. vpclmulqdq $16, %xmm3, %xmm9, %xmm8
  14335. vpshufd $0x4e, %xmm9, %xmm9
  14336. vpxor %xmm8, %xmm9, %xmm9
  14337. vpclmulqdq $16, %xmm3, %xmm9, %xmm8
  14338. vpshufd $0x4e, %xmm9, %xmm9
  14339. vpxor %xmm8, %xmm9, %xmm9
  14340. vpxor %xmm9, %xmm10, %xmm0
  14341. vmovdqa %xmm5, (%rsp)
  14342. vmovdqa %xmm0, 16(%rsp)
  14343. # H ^ 3 and H ^ 4
  14344. vpclmulqdq $16, %xmm5, %xmm0, %xmm11
  14345. vpclmulqdq $0x01, %xmm5, %xmm0, %xmm10
  14346. vpclmulqdq $0x00, %xmm5, %xmm0, %xmm9
  14347. vpclmulqdq $0x11, %xmm5, %xmm0, %xmm12
  14348. vpclmulqdq $0x00, %xmm0, %xmm0, %xmm13
  14349. vpclmulqdq $0x11, %xmm0, %xmm0, %xmm14
  14350. vpxor %xmm10, %xmm11, %xmm11
  14351. vpslldq $8, %xmm11, %xmm10
  14352. vpsrldq $8, %xmm11, %xmm11
  14353. vpxor %xmm9, %xmm10, %xmm10
  14354. vpclmulqdq $16, %xmm3, %xmm13, %xmm8
  14355. vpclmulqdq $16, %xmm3, %xmm10, %xmm9
  14356. vpshufd $0x4e, %xmm10, %xmm10
  14357. vpshufd $0x4e, %xmm13, %xmm13
  14358. vpxor %xmm9, %xmm10, %xmm10
  14359. vpxor %xmm8, %xmm13, %xmm13
  14360. vpclmulqdq $16, %xmm3, %xmm10, %xmm9
  14361. vpclmulqdq $16, %xmm3, %xmm13, %xmm8
  14362. vpshufd $0x4e, %xmm10, %xmm10
  14363. vpshufd $0x4e, %xmm13, %xmm13
  14364. vpxor %xmm11, %xmm12, %xmm12
  14365. vpxor %xmm8, %xmm13, %xmm13
  14366. vpxor %xmm12, %xmm10, %xmm10
  14367. vpxor %xmm14, %xmm13, %xmm2
  14368. vpxor %xmm9, %xmm10, %xmm1
  14369. vmovdqa %xmm1, 32(%rsp)
  14370. vmovdqa %xmm2, 48(%rsp)
  14371. # H ^ 5 and H ^ 6
  14372. vpclmulqdq $16, %xmm0, %xmm1, %xmm11
  14373. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm10
  14374. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm9
  14375. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm12
  14376. vpclmulqdq $0x00, %xmm1, %xmm1, %xmm13
  14377. vpclmulqdq $0x11, %xmm1, %xmm1, %xmm14
  14378. vpxor %xmm10, %xmm11, %xmm11
  14379. vpslldq $8, %xmm11, %xmm10
  14380. vpsrldq $8, %xmm11, %xmm11
  14381. vpxor %xmm9, %xmm10, %xmm10
  14382. vpclmulqdq $16, %xmm3, %xmm13, %xmm8
  14383. vpclmulqdq $16, %xmm3, %xmm10, %xmm9
  14384. vpshufd $0x4e, %xmm10, %xmm10
  14385. vpshufd $0x4e, %xmm13, %xmm13
  14386. vpxor %xmm9, %xmm10, %xmm10
  14387. vpxor %xmm8, %xmm13, %xmm13
  14388. vpclmulqdq $16, %xmm3, %xmm10, %xmm9
  14389. vpclmulqdq $16, %xmm3, %xmm13, %xmm8
  14390. vpshufd $0x4e, %xmm10, %xmm10
  14391. vpshufd $0x4e, %xmm13, %xmm13
  14392. vpxor %xmm11, %xmm12, %xmm12
  14393. vpxor %xmm8, %xmm13, %xmm13
  14394. vpxor %xmm12, %xmm10, %xmm10
  14395. vpxor %xmm14, %xmm13, %xmm0
  14396. vpxor %xmm9, %xmm10, %xmm7
  14397. vmovdqa %xmm7, 64(%rsp)
  14398. vmovdqa %xmm0, 80(%rsp)
  14399. # H ^ 7 and H ^ 8
  14400. vpclmulqdq $16, %xmm1, %xmm2, %xmm11
  14401. vpclmulqdq $0x01, %xmm1, %xmm2, %xmm10
  14402. vpclmulqdq $0x00, %xmm1, %xmm2, %xmm9
  14403. vpclmulqdq $0x11, %xmm1, %xmm2, %xmm12
  14404. vpclmulqdq $0x00, %xmm2, %xmm2, %xmm13
  14405. vpclmulqdq $0x11, %xmm2, %xmm2, %xmm14
  14406. vpxor %xmm10, %xmm11, %xmm11
  14407. vpslldq $8, %xmm11, %xmm10
  14408. vpsrldq $8, %xmm11, %xmm11
  14409. vpxor %xmm9, %xmm10, %xmm10
  14410. vpclmulqdq $16, %xmm3, %xmm13, %xmm8
  14411. vpclmulqdq $16, %xmm3, %xmm10, %xmm9
  14412. vpshufd $0x4e, %xmm10, %xmm10
  14413. vpshufd $0x4e, %xmm13, %xmm13
  14414. vpxor %xmm9, %xmm10, %xmm10
  14415. vpxor %xmm8, %xmm13, %xmm13
  14416. vpclmulqdq $16, %xmm3, %xmm10, %xmm9
  14417. vpclmulqdq $16, %xmm3, %xmm13, %xmm8
  14418. vpshufd $0x4e, %xmm10, %xmm10
  14419. vpshufd $0x4e, %xmm13, %xmm13
  14420. vpxor %xmm11, %xmm12, %xmm12
  14421. vpxor %xmm8, %xmm13, %xmm13
  14422. vpxor %xmm12, %xmm10, %xmm10
  14423. vpxor %xmm14, %xmm13, %xmm0
  14424. vpxor %xmm9, %xmm10, %xmm7
  14425. vmovdqa %xmm7, 96(%rsp)
  14426. vmovdqa %xmm0, 112(%rsp)
  14427. # First 128 bytes of input
  14428. # aesenc_128
  14429. # aesenc_ctr
  14430. vmovdqa 128(%rsp), %xmm0
  14431. vmovdqa L_avx2_aes_gcm_bswap_epi64(%rip), %xmm1
  14432. vpaddd L_avx2_aes_gcm_one(%rip), %xmm0, %xmm9
  14433. vpshufb %xmm1, %xmm0, %xmm8
  14434. vpaddd L_avx2_aes_gcm_two(%rip), %xmm0, %xmm10
  14435. vpshufb %xmm1, %xmm9, %xmm9
  14436. vpaddd L_avx2_aes_gcm_three(%rip), %xmm0, %xmm11
  14437. vpshufb %xmm1, %xmm10, %xmm10
  14438. vpaddd L_avx2_aes_gcm_four(%rip), %xmm0, %xmm12
  14439. vpshufb %xmm1, %xmm11, %xmm11
  14440. vpaddd L_avx2_aes_gcm_five(%rip), %xmm0, %xmm13
  14441. vpshufb %xmm1, %xmm12, %xmm12
  14442. vpaddd L_avx2_aes_gcm_six(%rip), %xmm0, %xmm14
  14443. vpshufb %xmm1, %xmm13, %xmm13
  14444. vpaddd L_avx2_aes_gcm_seven(%rip), %xmm0, %xmm15
  14445. vpshufb %xmm1, %xmm14, %xmm14
  14446. vpaddd L_avx2_aes_gcm_eight(%rip), %xmm0, %xmm0
  14447. vpshufb %xmm1, %xmm15, %xmm15
  14448. # aesenc_xor
  14449. vmovdqa (%rdi), %xmm7
  14450. vmovdqa %xmm0, 128(%rsp)
  14451. vpxor %xmm7, %xmm8, %xmm8
  14452. vpxor %xmm7, %xmm9, %xmm9
  14453. vpxor %xmm7, %xmm10, %xmm10
  14454. vpxor %xmm7, %xmm11, %xmm11
  14455. vpxor %xmm7, %xmm12, %xmm12
  14456. vpxor %xmm7, %xmm13, %xmm13
  14457. vpxor %xmm7, %xmm14, %xmm14
  14458. vpxor %xmm7, %xmm15, %xmm15
  14459. vmovdqa 16(%rdi), %xmm7
  14460. vaesenc %xmm7, %xmm8, %xmm8
  14461. vaesenc %xmm7, %xmm9, %xmm9
  14462. vaesenc %xmm7, %xmm10, %xmm10
  14463. vaesenc %xmm7, %xmm11, %xmm11
  14464. vaesenc %xmm7, %xmm12, %xmm12
  14465. vaesenc %xmm7, %xmm13, %xmm13
  14466. vaesenc %xmm7, %xmm14, %xmm14
  14467. vaesenc %xmm7, %xmm15, %xmm15
  14468. vmovdqa 32(%rdi), %xmm7
  14469. vaesenc %xmm7, %xmm8, %xmm8
  14470. vaesenc %xmm7, %xmm9, %xmm9
  14471. vaesenc %xmm7, %xmm10, %xmm10
  14472. vaesenc %xmm7, %xmm11, %xmm11
  14473. vaesenc %xmm7, %xmm12, %xmm12
  14474. vaesenc %xmm7, %xmm13, %xmm13
  14475. vaesenc %xmm7, %xmm14, %xmm14
  14476. vaesenc %xmm7, %xmm15, %xmm15
  14477. vmovdqa 48(%rdi), %xmm7
  14478. vaesenc %xmm7, %xmm8, %xmm8
  14479. vaesenc %xmm7, %xmm9, %xmm9
  14480. vaesenc %xmm7, %xmm10, %xmm10
  14481. vaesenc %xmm7, %xmm11, %xmm11
  14482. vaesenc %xmm7, %xmm12, %xmm12
  14483. vaesenc %xmm7, %xmm13, %xmm13
  14484. vaesenc %xmm7, %xmm14, %xmm14
  14485. vaesenc %xmm7, %xmm15, %xmm15
  14486. vmovdqa 64(%rdi), %xmm7
  14487. vaesenc %xmm7, %xmm8, %xmm8
  14488. vaesenc %xmm7, %xmm9, %xmm9
  14489. vaesenc %xmm7, %xmm10, %xmm10
  14490. vaesenc %xmm7, %xmm11, %xmm11
  14491. vaesenc %xmm7, %xmm12, %xmm12
  14492. vaesenc %xmm7, %xmm13, %xmm13
  14493. vaesenc %xmm7, %xmm14, %xmm14
  14494. vaesenc %xmm7, %xmm15, %xmm15
  14495. vmovdqa 80(%rdi), %xmm7
  14496. vaesenc %xmm7, %xmm8, %xmm8
  14497. vaesenc %xmm7, %xmm9, %xmm9
  14498. vaesenc %xmm7, %xmm10, %xmm10
  14499. vaesenc %xmm7, %xmm11, %xmm11
  14500. vaesenc %xmm7, %xmm12, %xmm12
  14501. vaesenc %xmm7, %xmm13, %xmm13
  14502. vaesenc %xmm7, %xmm14, %xmm14
  14503. vaesenc %xmm7, %xmm15, %xmm15
  14504. vmovdqa 96(%rdi), %xmm7
  14505. vaesenc %xmm7, %xmm8, %xmm8
  14506. vaesenc %xmm7, %xmm9, %xmm9
  14507. vaesenc %xmm7, %xmm10, %xmm10
  14508. vaesenc %xmm7, %xmm11, %xmm11
  14509. vaesenc %xmm7, %xmm12, %xmm12
  14510. vaesenc %xmm7, %xmm13, %xmm13
  14511. vaesenc %xmm7, %xmm14, %xmm14
  14512. vaesenc %xmm7, %xmm15, %xmm15
  14513. vmovdqa 112(%rdi), %xmm7
  14514. vaesenc %xmm7, %xmm8, %xmm8
  14515. vaesenc %xmm7, %xmm9, %xmm9
  14516. vaesenc %xmm7, %xmm10, %xmm10
  14517. vaesenc %xmm7, %xmm11, %xmm11
  14518. vaesenc %xmm7, %xmm12, %xmm12
  14519. vaesenc %xmm7, %xmm13, %xmm13
  14520. vaesenc %xmm7, %xmm14, %xmm14
  14521. vaesenc %xmm7, %xmm15, %xmm15
  14522. vmovdqa 128(%rdi), %xmm7
  14523. vaesenc %xmm7, %xmm8, %xmm8
  14524. vaesenc %xmm7, %xmm9, %xmm9
  14525. vaesenc %xmm7, %xmm10, %xmm10
  14526. vaesenc %xmm7, %xmm11, %xmm11
  14527. vaesenc %xmm7, %xmm12, %xmm12
  14528. vaesenc %xmm7, %xmm13, %xmm13
  14529. vaesenc %xmm7, %xmm14, %xmm14
  14530. vaesenc %xmm7, %xmm15, %xmm15
  14531. vmovdqa 144(%rdi), %xmm7
  14532. vaesenc %xmm7, %xmm8, %xmm8
  14533. vaesenc %xmm7, %xmm9, %xmm9
  14534. vaesenc %xmm7, %xmm10, %xmm10
  14535. vaesenc %xmm7, %xmm11, %xmm11
  14536. vaesenc %xmm7, %xmm12, %xmm12
  14537. vaesenc %xmm7, %xmm13, %xmm13
  14538. vaesenc %xmm7, %xmm14, %xmm14
  14539. vaesenc %xmm7, %xmm15, %xmm15
  14540. cmpl $11, %esi
  14541. vmovdqa 160(%rdi), %xmm7
  14542. jl L_AES_GCM_encrypt_update_avx2_aesenc_128_enc_done
  14543. vaesenc %xmm7, %xmm8, %xmm8
  14544. vaesenc %xmm7, %xmm9, %xmm9
  14545. vaesenc %xmm7, %xmm10, %xmm10
  14546. vaesenc %xmm7, %xmm11, %xmm11
  14547. vaesenc %xmm7, %xmm12, %xmm12
  14548. vaesenc %xmm7, %xmm13, %xmm13
  14549. vaesenc %xmm7, %xmm14, %xmm14
  14550. vaesenc %xmm7, %xmm15, %xmm15
  14551. vmovdqa 176(%rdi), %xmm7
  14552. vaesenc %xmm7, %xmm8, %xmm8
  14553. vaesenc %xmm7, %xmm9, %xmm9
  14554. vaesenc %xmm7, %xmm10, %xmm10
  14555. vaesenc %xmm7, %xmm11, %xmm11
  14556. vaesenc %xmm7, %xmm12, %xmm12
  14557. vaesenc %xmm7, %xmm13, %xmm13
  14558. vaesenc %xmm7, %xmm14, %xmm14
  14559. vaesenc %xmm7, %xmm15, %xmm15
  14560. cmpl $13, %esi
  14561. vmovdqa 192(%rdi), %xmm7
  14562. jl L_AES_GCM_encrypt_update_avx2_aesenc_128_enc_done
  14563. vaesenc %xmm7, %xmm8, %xmm8
  14564. vaesenc %xmm7, %xmm9, %xmm9
  14565. vaesenc %xmm7, %xmm10, %xmm10
  14566. vaesenc %xmm7, %xmm11, %xmm11
  14567. vaesenc %xmm7, %xmm12, %xmm12
  14568. vaesenc %xmm7, %xmm13, %xmm13
  14569. vaesenc %xmm7, %xmm14, %xmm14
  14570. vaesenc %xmm7, %xmm15, %xmm15
  14571. vmovdqa 208(%rdi), %xmm7
  14572. vaesenc %xmm7, %xmm8, %xmm8
  14573. vaesenc %xmm7, %xmm9, %xmm9
  14574. vaesenc %xmm7, %xmm10, %xmm10
  14575. vaesenc %xmm7, %xmm11, %xmm11
  14576. vaesenc %xmm7, %xmm12, %xmm12
  14577. vaesenc %xmm7, %xmm13, %xmm13
  14578. vaesenc %xmm7, %xmm14, %xmm14
  14579. vaesenc %xmm7, %xmm15, %xmm15
  14580. vmovdqa 224(%rdi), %xmm7
  14581. L_AES_GCM_encrypt_update_avx2_aesenc_128_enc_done:
  14582. # aesenc_last
  14583. vaesenclast %xmm7, %xmm8, %xmm8
  14584. vaesenclast %xmm7, %xmm9, %xmm9
  14585. vaesenclast %xmm7, %xmm10, %xmm10
  14586. vaesenclast %xmm7, %xmm11, %xmm11
  14587. vmovdqu (%r11), %xmm0
  14588. vmovdqu 16(%r11), %xmm1
  14589. vmovdqu 32(%r11), %xmm2
  14590. vmovdqu 48(%r11), %xmm3
  14591. vpxor %xmm0, %xmm8, %xmm8
  14592. vpxor %xmm1, %xmm9, %xmm9
  14593. vpxor %xmm2, %xmm10, %xmm10
  14594. vpxor %xmm3, %xmm11, %xmm11
  14595. vmovdqu %xmm8, (%r10)
  14596. vmovdqu %xmm9, 16(%r10)
  14597. vmovdqu %xmm10, 32(%r10)
  14598. vmovdqu %xmm11, 48(%r10)
  14599. vaesenclast %xmm7, %xmm12, %xmm12
  14600. vaesenclast %xmm7, %xmm13, %xmm13
  14601. vaesenclast %xmm7, %xmm14, %xmm14
  14602. vaesenclast %xmm7, %xmm15, %xmm15
  14603. vmovdqu 64(%r11), %xmm0
  14604. vmovdqu 80(%r11), %xmm1
  14605. vmovdqu 96(%r11), %xmm2
  14606. vmovdqu 112(%r11), %xmm3
  14607. vpxor %xmm0, %xmm12, %xmm12
  14608. vpxor %xmm1, %xmm13, %xmm13
  14609. vpxor %xmm2, %xmm14, %xmm14
  14610. vpxor %xmm3, %xmm15, %xmm15
  14611. vmovdqu %xmm12, 64(%r10)
  14612. vmovdqu %xmm13, 80(%r10)
  14613. vmovdqu %xmm14, 96(%r10)
  14614. vmovdqu %xmm15, 112(%r10)
  14615. cmpl $0x80, %r13d
  14616. movl $0x80, %r14d
  14617. jle L_AES_GCM_encrypt_update_avx2_end_128
  14618. # More 128 bytes of input
  14619. L_AES_GCM_encrypt_update_avx2_ghash_128:
  14620. # aesenc_128_ghash
  14621. leaq (%r11,%r14,1), %rcx
  14622. leaq (%r10,%r14,1), %rdx
  14623. # aesenc_ctr
  14624. vmovdqa 128(%rsp), %xmm0
  14625. vmovdqa L_avx2_aes_gcm_bswap_epi64(%rip), %xmm1
  14626. vpaddd L_avx2_aes_gcm_one(%rip), %xmm0, %xmm9
  14627. vpshufb %xmm1, %xmm0, %xmm8
  14628. vpaddd L_avx2_aes_gcm_two(%rip), %xmm0, %xmm10
  14629. vpshufb %xmm1, %xmm9, %xmm9
  14630. vpaddd L_avx2_aes_gcm_three(%rip), %xmm0, %xmm11
  14631. vpshufb %xmm1, %xmm10, %xmm10
  14632. vpaddd L_avx2_aes_gcm_four(%rip), %xmm0, %xmm12
  14633. vpshufb %xmm1, %xmm11, %xmm11
  14634. vpaddd L_avx2_aes_gcm_five(%rip), %xmm0, %xmm13
  14635. vpshufb %xmm1, %xmm12, %xmm12
  14636. vpaddd L_avx2_aes_gcm_six(%rip), %xmm0, %xmm14
  14637. vpshufb %xmm1, %xmm13, %xmm13
  14638. vpaddd L_avx2_aes_gcm_seven(%rip), %xmm0, %xmm15
  14639. vpshufb %xmm1, %xmm14, %xmm14
  14640. vpaddd L_avx2_aes_gcm_eight(%rip), %xmm0, %xmm0
  14641. vpshufb %xmm1, %xmm15, %xmm15
  14642. # aesenc_xor
  14643. vmovdqa (%rdi), %xmm7
  14644. vmovdqa %xmm0, 128(%rsp)
  14645. vpxor %xmm7, %xmm8, %xmm8
  14646. vpxor %xmm7, %xmm9, %xmm9
  14647. vpxor %xmm7, %xmm10, %xmm10
  14648. vpxor %xmm7, %xmm11, %xmm11
  14649. vpxor %xmm7, %xmm12, %xmm12
  14650. vpxor %xmm7, %xmm13, %xmm13
  14651. vpxor %xmm7, %xmm14, %xmm14
  14652. vpxor %xmm7, %xmm15, %xmm15
  14653. # aesenc_pclmul_1
  14654. vmovdqu -128(%rdx), %xmm1
  14655. vmovdqu 16(%rdi), %xmm0
  14656. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
  14657. vmovdqa 112(%rsp), %xmm2
  14658. vpxor %xmm6, %xmm1, %xmm1
  14659. vpclmulqdq $16, %xmm2, %xmm1, %xmm5
  14660. vpclmulqdq $0x01, %xmm2, %xmm1, %xmm3
  14661. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm6
  14662. vpclmulqdq $0x11, %xmm2, %xmm1, %xmm7
  14663. vaesenc %xmm0, %xmm8, %xmm8
  14664. vaesenc %xmm0, %xmm9, %xmm9
  14665. vaesenc %xmm0, %xmm10, %xmm10
  14666. vaesenc %xmm0, %xmm11, %xmm11
  14667. vaesenc %xmm0, %xmm12, %xmm12
  14668. vaesenc %xmm0, %xmm13, %xmm13
  14669. vaesenc %xmm0, %xmm14, %xmm14
  14670. vaesenc %xmm0, %xmm15, %xmm15
  14671. # aesenc_pclmul_2
  14672. vmovdqu -112(%rdx), %xmm1
  14673. vmovdqa 96(%rsp), %xmm0
  14674. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
  14675. vpxor %xmm3, %xmm5, %xmm5
  14676. vpclmulqdq $16, %xmm0, %xmm1, %xmm2
  14677. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
  14678. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
  14679. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
  14680. vmovdqu 32(%rdi), %xmm0
  14681. vpxor %xmm1, %xmm7, %xmm7
  14682. vaesenc %xmm0, %xmm8, %xmm8
  14683. vaesenc %xmm0, %xmm9, %xmm9
  14684. vaesenc %xmm0, %xmm10, %xmm10
  14685. vaesenc %xmm0, %xmm11, %xmm11
  14686. vaesenc %xmm0, %xmm12, %xmm12
  14687. vaesenc %xmm0, %xmm13, %xmm13
  14688. vaesenc %xmm0, %xmm14, %xmm14
  14689. vaesenc %xmm0, %xmm15, %xmm15
  14690. # aesenc_pclmul_n
  14691. vmovdqu -96(%rdx), %xmm1
  14692. vmovdqa 80(%rsp), %xmm0
  14693. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
  14694. vpxor %xmm2, %xmm5, %xmm5
  14695. vpclmulqdq $16, %xmm0, %xmm1, %xmm2
  14696. vpxor %xmm3, %xmm5, %xmm5
  14697. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
  14698. vpxor %xmm4, %xmm6, %xmm6
  14699. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
  14700. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
  14701. vmovdqu 48(%rdi), %xmm0
  14702. vpxor %xmm1, %xmm7, %xmm7
  14703. vaesenc %xmm0, %xmm8, %xmm8
  14704. vaesenc %xmm0, %xmm9, %xmm9
  14705. vaesenc %xmm0, %xmm10, %xmm10
  14706. vaesenc %xmm0, %xmm11, %xmm11
  14707. vaesenc %xmm0, %xmm12, %xmm12
  14708. vaesenc %xmm0, %xmm13, %xmm13
  14709. vaesenc %xmm0, %xmm14, %xmm14
  14710. vaesenc %xmm0, %xmm15, %xmm15
  14711. # aesenc_pclmul_n
  14712. vmovdqu -80(%rdx), %xmm1
  14713. vmovdqa 64(%rsp), %xmm0
  14714. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
  14715. vpxor %xmm2, %xmm5, %xmm5
  14716. vpclmulqdq $16, %xmm0, %xmm1, %xmm2
  14717. vpxor %xmm3, %xmm5, %xmm5
  14718. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
  14719. vpxor %xmm4, %xmm6, %xmm6
  14720. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
  14721. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
  14722. vmovdqu 64(%rdi), %xmm0
  14723. vpxor %xmm1, %xmm7, %xmm7
  14724. vaesenc %xmm0, %xmm8, %xmm8
  14725. vaesenc %xmm0, %xmm9, %xmm9
  14726. vaesenc %xmm0, %xmm10, %xmm10
  14727. vaesenc %xmm0, %xmm11, %xmm11
  14728. vaesenc %xmm0, %xmm12, %xmm12
  14729. vaesenc %xmm0, %xmm13, %xmm13
  14730. vaesenc %xmm0, %xmm14, %xmm14
  14731. vaesenc %xmm0, %xmm15, %xmm15
  14732. # aesenc_pclmul_n
  14733. vmovdqu -64(%rdx), %xmm1
  14734. vmovdqa 48(%rsp), %xmm0
  14735. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
  14736. vpxor %xmm2, %xmm5, %xmm5
  14737. vpclmulqdq $16, %xmm0, %xmm1, %xmm2
  14738. vpxor %xmm3, %xmm5, %xmm5
  14739. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
  14740. vpxor %xmm4, %xmm6, %xmm6
  14741. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
  14742. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
  14743. vmovdqu 80(%rdi), %xmm0
  14744. vpxor %xmm1, %xmm7, %xmm7
  14745. vaesenc %xmm0, %xmm8, %xmm8
  14746. vaesenc %xmm0, %xmm9, %xmm9
  14747. vaesenc %xmm0, %xmm10, %xmm10
  14748. vaesenc %xmm0, %xmm11, %xmm11
  14749. vaesenc %xmm0, %xmm12, %xmm12
  14750. vaesenc %xmm0, %xmm13, %xmm13
  14751. vaesenc %xmm0, %xmm14, %xmm14
  14752. vaesenc %xmm0, %xmm15, %xmm15
  14753. # aesenc_pclmul_n
  14754. vmovdqu -48(%rdx), %xmm1
  14755. vmovdqa 32(%rsp), %xmm0
  14756. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
  14757. vpxor %xmm2, %xmm5, %xmm5
  14758. vpclmulqdq $16, %xmm0, %xmm1, %xmm2
  14759. vpxor %xmm3, %xmm5, %xmm5
  14760. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
  14761. vpxor %xmm4, %xmm6, %xmm6
  14762. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
  14763. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
  14764. vmovdqu 96(%rdi), %xmm0
  14765. vpxor %xmm1, %xmm7, %xmm7
  14766. vaesenc %xmm0, %xmm8, %xmm8
  14767. vaesenc %xmm0, %xmm9, %xmm9
  14768. vaesenc %xmm0, %xmm10, %xmm10
  14769. vaesenc %xmm0, %xmm11, %xmm11
  14770. vaesenc %xmm0, %xmm12, %xmm12
  14771. vaesenc %xmm0, %xmm13, %xmm13
  14772. vaesenc %xmm0, %xmm14, %xmm14
  14773. vaesenc %xmm0, %xmm15, %xmm15
  14774. # aesenc_pclmul_n
  14775. vmovdqu -32(%rdx), %xmm1
  14776. vmovdqa 16(%rsp), %xmm0
  14777. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
  14778. vpxor %xmm2, %xmm5, %xmm5
  14779. vpclmulqdq $16, %xmm0, %xmm1, %xmm2
  14780. vpxor %xmm3, %xmm5, %xmm5
  14781. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
  14782. vpxor %xmm4, %xmm6, %xmm6
  14783. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
  14784. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
  14785. vmovdqu 112(%rdi), %xmm0
  14786. vpxor %xmm1, %xmm7, %xmm7
  14787. vaesenc %xmm0, %xmm8, %xmm8
  14788. vaesenc %xmm0, %xmm9, %xmm9
  14789. vaesenc %xmm0, %xmm10, %xmm10
  14790. vaesenc %xmm0, %xmm11, %xmm11
  14791. vaesenc %xmm0, %xmm12, %xmm12
  14792. vaesenc %xmm0, %xmm13, %xmm13
  14793. vaesenc %xmm0, %xmm14, %xmm14
  14794. vaesenc %xmm0, %xmm15, %xmm15
  14795. # aesenc_pclmul_n
  14796. vmovdqu -16(%rdx), %xmm1
  14797. vmovdqa (%rsp), %xmm0
  14798. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
  14799. vpxor %xmm2, %xmm5, %xmm5
  14800. vpclmulqdq $16, %xmm0, %xmm1, %xmm2
  14801. vpxor %xmm3, %xmm5, %xmm5
  14802. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
  14803. vpxor %xmm4, %xmm6, %xmm6
  14804. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
  14805. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
  14806. vmovdqu 128(%rdi), %xmm0
  14807. vpxor %xmm1, %xmm7, %xmm7
  14808. vaesenc %xmm0, %xmm8, %xmm8
  14809. vaesenc %xmm0, %xmm9, %xmm9
  14810. vaesenc %xmm0, %xmm10, %xmm10
  14811. vaesenc %xmm0, %xmm11, %xmm11
  14812. vaesenc %xmm0, %xmm12, %xmm12
  14813. vaesenc %xmm0, %xmm13, %xmm13
  14814. vaesenc %xmm0, %xmm14, %xmm14
  14815. vaesenc %xmm0, %xmm15, %xmm15
  14816. # aesenc_pclmul_l
  14817. vpxor %xmm2, %xmm5, %xmm5
  14818. vpxor %xmm4, %xmm6, %xmm6
  14819. vpxor %xmm3, %xmm5, %xmm5
  14820. vpslldq $8, %xmm5, %xmm1
  14821. vpsrldq $8, %xmm5, %xmm5
  14822. vmovdqa 144(%rdi), %xmm4
  14823. vmovdqa L_avx2_aes_gcm_mod2_128(%rip), %xmm0
  14824. vaesenc %xmm4, %xmm8, %xmm8
  14825. vpxor %xmm1, %xmm6, %xmm6
  14826. vpxor %xmm5, %xmm7, %xmm7
  14827. vpclmulqdq $16, %xmm0, %xmm6, %xmm3
  14828. vaesenc %xmm4, %xmm9, %xmm9
  14829. vaesenc %xmm4, %xmm10, %xmm10
  14830. vaesenc %xmm4, %xmm11, %xmm11
  14831. vpshufd $0x4e, %xmm6, %xmm6
  14832. vpxor %xmm3, %xmm6, %xmm6
  14833. vpclmulqdq $16, %xmm0, %xmm6, %xmm3
  14834. vaesenc %xmm4, %xmm12, %xmm12
  14835. vaesenc %xmm4, %xmm13, %xmm13
  14836. vaesenc %xmm4, %xmm14, %xmm14
  14837. vpshufd $0x4e, %xmm6, %xmm6
  14838. vpxor %xmm3, %xmm6, %xmm6
  14839. vpxor %xmm7, %xmm6, %xmm6
  14840. vaesenc %xmm4, %xmm15, %xmm15
  14841. cmpl $11, %esi
  14842. vmovdqa 160(%rdi), %xmm7
  14843. jl L_AES_GCM_encrypt_update_avx2_aesenc_128_ghash_avx_done
  14844. vaesenc %xmm7, %xmm8, %xmm8
  14845. vaesenc %xmm7, %xmm9, %xmm9
  14846. vaesenc %xmm7, %xmm10, %xmm10
  14847. vaesenc %xmm7, %xmm11, %xmm11
  14848. vaesenc %xmm7, %xmm12, %xmm12
  14849. vaesenc %xmm7, %xmm13, %xmm13
  14850. vaesenc %xmm7, %xmm14, %xmm14
  14851. vaesenc %xmm7, %xmm15, %xmm15
  14852. vmovdqa 176(%rdi), %xmm7
  14853. vaesenc %xmm7, %xmm8, %xmm8
  14854. vaesenc %xmm7, %xmm9, %xmm9
  14855. vaesenc %xmm7, %xmm10, %xmm10
  14856. vaesenc %xmm7, %xmm11, %xmm11
  14857. vaesenc %xmm7, %xmm12, %xmm12
  14858. vaesenc %xmm7, %xmm13, %xmm13
  14859. vaesenc %xmm7, %xmm14, %xmm14
  14860. vaesenc %xmm7, %xmm15, %xmm15
  14861. cmpl $13, %esi
  14862. vmovdqa 192(%rdi), %xmm7
  14863. jl L_AES_GCM_encrypt_update_avx2_aesenc_128_ghash_avx_done
  14864. vaesenc %xmm7, %xmm8, %xmm8
  14865. vaesenc %xmm7, %xmm9, %xmm9
  14866. vaesenc %xmm7, %xmm10, %xmm10
  14867. vaesenc %xmm7, %xmm11, %xmm11
  14868. vaesenc %xmm7, %xmm12, %xmm12
  14869. vaesenc %xmm7, %xmm13, %xmm13
  14870. vaesenc %xmm7, %xmm14, %xmm14
  14871. vaesenc %xmm7, %xmm15, %xmm15
  14872. vmovdqa 208(%rdi), %xmm7
  14873. vaesenc %xmm7, %xmm8, %xmm8
  14874. vaesenc %xmm7, %xmm9, %xmm9
  14875. vaesenc %xmm7, %xmm10, %xmm10
  14876. vaesenc %xmm7, %xmm11, %xmm11
  14877. vaesenc %xmm7, %xmm12, %xmm12
  14878. vaesenc %xmm7, %xmm13, %xmm13
  14879. vaesenc %xmm7, %xmm14, %xmm14
  14880. vaesenc %xmm7, %xmm15, %xmm15
  14881. vmovdqa 224(%rdi), %xmm7
  14882. L_AES_GCM_encrypt_update_avx2_aesenc_128_ghash_avx_done:
  14883. # aesenc_last
  14884. vaesenclast %xmm7, %xmm8, %xmm8
  14885. vaesenclast %xmm7, %xmm9, %xmm9
  14886. vaesenclast %xmm7, %xmm10, %xmm10
  14887. vaesenclast %xmm7, %xmm11, %xmm11
  14888. vmovdqu (%rcx), %xmm0
  14889. vmovdqu 16(%rcx), %xmm1
  14890. vmovdqu 32(%rcx), %xmm2
  14891. vmovdqu 48(%rcx), %xmm3
  14892. vpxor %xmm0, %xmm8, %xmm8
  14893. vpxor %xmm1, %xmm9, %xmm9
  14894. vpxor %xmm2, %xmm10, %xmm10
  14895. vpxor %xmm3, %xmm11, %xmm11
  14896. vmovdqu %xmm8, (%rdx)
  14897. vmovdqu %xmm9, 16(%rdx)
  14898. vmovdqu %xmm10, 32(%rdx)
  14899. vmovdqu %xmm11, 48(%rdx)
  14900. vaesenclast %xmm7, %xmm12, %xmm12
  14901. vaesenclast %xmm7, %xmm13, %xmm13
  14902. vaesenclast %xmm7, %xmm14, %xmm14
  14903. vaesenclast %xmm7, %xmm15, %xmm15
  14904. vmovdqu 64(%rcx), %xmm0
  14905. vmovdqu 80(%rcx), %xmm1
  14906. vmovdqu 96(%rcx), %xmm2
  14907. vmovdqu 112(%rcx), %xmm3
  14908. vpxor %xmm0, %xmm12, %xmm12
  14909. vpxor %xmm1, %xmm13, %xmm13
  14910. vpxor %xmm2, %xmm14, %xmm14
  14911. vpxor %xmm3, %xmm15, %xmm15
  14912. vmovdqu %xmm12, 64(%rdx)
  14913. vmovdqu %xmm13, 80(%rdx)
  14914. vmovdqu %xmm14, 96(%rdx)
  14915. vmovdqu %xmm15, 112(%rdx)
  14916. # aesenc_128_ghash - end
  14917. addl $0x80, %r14d
  14918. cmpl %r13d, %r14d
  14919. jl L_AES_GCM_encrypt_update_avx2_ghash_128
  14920. L_AES_GCM_encrypt_update_avx2_end_128:
  14921. vmovdqa L_avx2_aes_gcm_bswap_mask(%rip), %xmm4
  14922. vpshufb %xmm4, %xmm8, %xmm8
  14923. vpshufb %xmm4, %xmm9, %xmm9
  14924. vpshufb %xmm4, %xmm10, %xmm10
  14925. vpshufb %xmm4, %xmm11, %xmm11
  14926. vpshufb %xmm4, %xmm12, %xmm12
  14927. vpshufb %xmm4, %xmm13, %xmm13
  14928. vpshufb %xmm4, %xmm14, %xmm14
  14929. vpshufb %xmm4, %xmm15, %xmm15
  14930. vpxor %xmm6, %xmm8, %xmm8
  14931. vmovdqu (%rsp), %xmm7
  14932. vpclmulqdq $16, %xmm15, %xmm7, %xmm5
  14933. vpclmulqdq $0x01, %xmm15, %xmm7, %xmm1
  14934. vpclmulqdq $0x00, %xmm15, %xmm7, %xmm4
  14935. vpclmulqdq $0x11, %xmm15, %xmm7, %xmm6
  14936. vpxor %xmm1, %xmm5, %xmm5
  14937. vmovdqu 16(%rsp), %xmm7
  14938. vpclmulqdq $16, %xmm14, %xmm7, %xmm2
  14939. vpclmulqdq $0x01, %xmm14, %xmm7, %xmm1
  14940. vpclmulqdq $0x00, %xmm14, %xmm7, %xmm0
  14941. vpclmulqdq $0x11, %xmm14, %xmm7, %xmm3
  14942. vpxor %xmm1, %xmm2, %xmm2
  14943. vpxor %xmm3, %xmm6, %xmm6
  14944. vpxor %xmm2, %xmm5, %xmm5
  14945. vpxor %xmm0, %xmm4, %xmm4
  14946. vmovdqu 32(%rsp), %xmm15
  14947. vmovdqu 48(%rsp), %xmm7
  14948. vpclmulqdq $16, %xmm13, %xmm15, %xmm2
  14949. vpclmulqdq $0x01, %xmm13, %xmm15, %xmm1
  14950. vpclmulqdq $0x00, %xmm13, %xmm15, %xmm0
  14951. vpclmulqdq $0x11, %xmm13, %xmm15, %xmm3
  14952. vpxor %xmm1, %xmm2, %xmm2
  14953. vpxor %xmm3, %xmm6, %xmm6
  14954. vpxor %xmm2, %xmm5, %xmm5
  14955. vpxor %xmm0, %xmm4, %xmm4
  14956. vpclmulqdq $16, %xmm12, %xmm7, %xmm2
  14957. vpclmulqdq $0x01, %xmm12, %xmm7, %xmm1
  14958. vpclmulqdq $0x00, %xmm12, %xmm7, %xmm0
  14959. vpclmulqdq $0x11, %xmm12, %xmm7, %xmm3
  14960. vpxor %xmm1, %xmm2, %xmm2
  14961. vpxor %xmm3, %xmm6, %xmm6
  14962. vpxor %xmm2, %xmm5, %xmm5
  14963. vpxor %xmm0, %xmm4, %xmm4
  14964. vmovdqu 64(%rsp), %xmm15
  14965. vmovdqu 80(%rsp), %xmm7
  14966. vpclmulqdq $16, %xmm11, %xmm15, %xmm2
  14967. vpclmulqdq $0x01, %xmm11, %xmm15, %xmm1
  14968. vpclmulqdq $0x00, %xmm11, %xmm15, %xmm0
  14969. vpclmulqdq $0x11, %xmm11, %xmm15, %xmm3
  14970. vpxor %xmm1, %xmm2, %xmm2
  14971. vpxor %xmm3, %xmm6, %xmm6
  14972. vpxor %xmm2, %xmm5, %xmm5
  14973. vpxor %xmm0, %xmm4, %xmm4
  14974. vpclmulqdq $16, %xmm10, %xmm7, %xmm2
  14975. vpclmulqdq $0x01, %xmm10, %xmm7, %xmm1
  14976. vpclmulqdq $0x00, %xmm10, %xmm7, %xmm0
  14977. vpclmulqdq $0x11, %xmm10, %xmm7, %xmm3
  14978. vpxor %xmm1, %xmm2, %xmm2
  14979. vpxor %xmm3, %xmm6, %xmm6
  14980. vpxor %xmm2, %xmm5, %xmm5
  14981. vpxor %xmm0, %xmm4, %xmm4
  14982. vmovdqu 96(%rsp), %xmm15
  14983. vmovdqu 112(%rsp), %xmm7
  14984. vpclmulqdq $16, %xmm9, %xmm15, %xmm2
  14985. vpclmulqdq $0x01, %xmm9, %xmm15, %xmm1
  14986. vpclmulqdq $0x00, %xmm9, %xmm15, %xmm0
  14987. vpclmulqdq $0x11, %xmm9, %xmm15, %xmm3
  14988. vpxor %xmm1, %xmm2, %xmm2
  14989. vpxor %xmm3, %xmm6, %xmm6
  14990. vpxor %xmm2, %xmm5, %xmm5
  14991. vpxor %xmm0, %xmm4, %xmm4
  14992. vpclmulqdq $16, %xmm8, %xmm7, %xmm2
  14993. vpclmulqdq $0x01, %xmm8, %xmm7, %xmm1
  14994. vpclmulqdq $0x00, %xmm8, %xmm7, %xmm0
  14995. vpclmulqdq $0x11, %xmm8, %xmm7, %xmm3
  14996. vpxor %xmm1, %xmm2, %xmm2
  14997. vpxor %xmm3, %xmm6, %xmm6
  14998. vpxor %xmm2, %xmm5, %xmm5
  14999. vpxor %xmm0, %xmm4, %xmm4
  15000. vpslldq $8, %xmm5, %xmm7
  15001. vpsrldq $8, %xmm5, %xmm5
  15002. vpxor %xmm7, %xmm4, %xmm4
  15003. vpxor %xmm5, %xmm6, %xmm6
  15004. # ghash_red
  15005. vmovdqa L_avx2_aes_gcm_mod2_128(%rip), %xmm2
  15006. vpclmulqdq $16, %xmm2, %xmm4, %xmm0
  15007. vpshufd $0x4e, %xmm4, %xmm1
  15008. vpxor %xmm0, %xmm1, %xmm1
  15009. vpclmulqdq $16, %xmm2, %xmm1, %xmm0
  15010. vpshufd $0x4e, %xmm1, %xmm1
  15011. vpxor %xmm0, %xmm1, %xmm1
  15012. vpxor %xmm1, %xmm6, %xmm6
  15013. vmovdqa (%rsp), %xmm5
  15014. vmovdqu 128(%rsp), %xmm4
  15015. L_AES_GCM_encrypt_update_avx2_done_128:
  15016. cmpl %r8d, %r14d
  15017. je L_AES_GCM_encrypt_update_avx2_done_enc
  15018. movl %r8d, %r13d
  15019. andl $0xfffffff0, %r13d
  15020. cmpl %r13d, %r14d
  15021. jge L_AES_GCM_encrypt_update_avx2_last_block_done
  15022. # aesenc_block
  15023. vmovdqa %xmm4, %xmm1
  15024. vpshufb L_avx2_aes_gcm_bswap_epi64(%rip), %xmm1, %xmm0
  15025. vpaddd L_avx2_aes_gcm_one(%rip), %xmm1, %xmm1
  15026. vpxor (%rdi), %xmm0, %xmm0
  15027. vmovdqa 16(%rdi), %xmm2
  15028. vaesenc %xmm2, %xmm0, %xmm0
  15029. vmovdqa 32(%rdi), %xmm2
  15030. vaesenc %xmm2, %xmm0, %xmm0
  15031. vmovdqa 48(%rdi), %xmm2
  15032. vaesenc %xmm2, %xmm0, %xmm0
  15033. vmovdqa 64(%rdi), %xmm2
  15034. vaesenc %xmm2, %xmm0, %xmm0
  15035. vmovdqa 80(%rdi), %xmm2
  15036. vaesenc %xmm2, %xmm0, %xmm0
  15037. vmovdqa 96(%rdi), %xmm2
  15038. vaesenc %xmm2, %xmm0, %xmm0
  15039. vmovdqa 112(%rdi), %xmm2
  15040. vaesenc %xmm2, %xmm0, %xmm0
  15041. vmovdqa 128(%rdi), %xmm2
  15042. vaesenc %xmm2, %xmm0, %xmm0
  15043. vmovdqa 144(%rdi), %xmm2
  15044. vaesenc %xmm2, %xmm0, %xmm0
  15045. vmovdqa %xmm1, %xmm4
  15046. cmpl $11, %esi
  15047. vmovdqa 160(%rdi), %xmm1
  15048. jl L_AES_GCM_encrypt_update_avx2_aesenc_block_last
  15049. vaesenc %xmm1, %xmm0, %xmm0
  15050. vmovdqa 176(%rdi), %xmm2
  15051. vaesenc %xmm2, %xmm0, %xmm0
  15052. cmpl $13, %esi
  15053. vmovdqa 192(%rdi), %xmm1
  15054. jl L_AES_GCM_encrypt_update_avx2_aesenc_block_last
  15055. vaesenc %xmm1, %xmm0, %xmm0
  15056. vmovdqa 208(%rdi), %xmm2
  15057. vaesenc %xmm2, %xmm0, %xmm0
  15058. vmovdqa 224(%rdi), %xmm1
  15059. L_AES_GCM_encrypt_update_avx2_aesenc_block_last:
  15060. vaesenclast %xmm1, %xmm0, %xmm0
  15061. vmovdqu (%r11,%r14,1), %xmm1
  15062. vpxor %xmm1, %xmm0, %xmm0
  15063. vmovdqu %xmm0, (%r10,%r14,1)
  15064. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  15065. vpxor %xmm0, %xmm6, %xmm6
  15066. addl $16, %r14d
  15067. cmpl %r13d, %r14d
  15068. jge L_AES_GCM_encrypt_update_avx2_last_block_ghash
  15069. L_AES_GCM_encrypt_update_avx2_last_block_start:
  15070. vmovdqu (%r11,%r14,1), %xmm12
  15071. vpshufb L_avx2_aes_gcm_bswap_epi64(%rip), %xmm4, %xmm11
  15072. vpaddd L_avx2_aes_gcm_one(%rip), %xmm4, %xmm4
  15073. # aesenc_gfmul_sb
  15074. vpclmulqdq $0x01, %xmm5, %xmm6, %xmm2
  15075. vpclmulqdq $16, %xmm5, %xmm6, %xmm3
  15076. vpclmulqdq $0x00, %xmm5, %xmm6, %xmm1
  15077. vpclmulqdq $0x11, %xmm5, %xmm6, %xmm8
  15078. vpxor (%rdi), %xmm11, %xmm11
  15079. vaesenc 16(%rdi), %xmm11, %xmm11
  15080. vpxor %xmm2, %xmm3, %xmm3
  15081. vpslldq $8, %xmm3, %xmm2
  15082. vpsrldq $8, %xmm3, %xmm3
  15083. vaesenc 32(%rdi), %xmm11, %xmm11
  15084. vpxor %xmm1, %xmm2, %xmm2
  15085. vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm2, %xmm1
  15086. vaesenc 48(%rdi), %xmm11, %xmm11
  15087. vaesenc 64(%rdi), %xmm11, %xmm11
  15088. vaesenc 80(%rdi), %xmm11, %xmm11
  15089. vpshufd $0x4e, %xmm2, %xmm2
  15090. vpxor %xmm1, %xmm2, %xmm2
  15091. vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm2, %xmm1
  15092. vaesenc 96(%rdi), %xmm11, %xmm11
  15093. vaesenc 112(%rdi), %xmm11, %xmm11
  15094. vaesenc 128(%rdi), %xmm11, %xmm11
  15095. vpshufd $0x4e, %xmm2, %xmm2
  15096. vaesenc 144(%rdi), %xmm11, %xmm11
  15097. vpxor %xmm3, %xmm8, %xmm8
  15098. vpxor %xmm8, %xmm2, %xmm2
  15099. vmovdqa 160(%rdi), %xmm0
  15100. cmpl $11, %esi
  15101. jl L_AES_GCM_encrypt_update_avx2_aesenc_gfmul_sb_last
  15102. vaesenc %xmm0, %xmm11, %xmm11
  15103. vaesenc 176(%rdi), %xmm11, %xmm11
  15104. vmovdqa 192(%rdi), %xmm0
  15105. cmpl $13, %esi
  15106. jl L_AES_GCM_encrypt_update_avx2_aesenc_gfmul_sb_last
  15107. vaesenc %xmm0, %xmm11, %xmm11
  15108. vaesenc 208(%rdi), %xmm11, %xmm11
  15109. vmovdqa 224(%rdi), %xmm0
  15110. L_AES_GCM_encrypt_update_avx2_aesenc_gfmul_sb_last:
  15111. vaesenclast %xmm0, %xmm11, %xmm11
  15112. vpxor %xmm1, %xmm2, %xmm6
  15113. vpxor %xmm12, %xmm11, %xmm11
  15114. vmovdqu %xmm11, (%r10,%r14,1)
  15115. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm11, %xmm11
  15116. vpxor %xmm11, %xmm6, %xmm6
  15117. addl $16, %r14d
  15118. cmpl %r13d, %r14d
  15119. jl L_AES_GCM_encrypt_update_avx2_last_block_start
  15120. L_AES_GCM_encrypt_update_avx2_last_block_ghash:
  15121. # ghash_gfmul_red
  15122. vpclmulqdq $16, %xmm5, %xmm6, %xmm10
  15123. vpclmulqdq $0x01, %xmm5, %xmm6, %xmm9
  15124. vpclmulqdq $0x00, %xmm5, %xmm6, %xmm8
  15125. vpxor %xmm9, %xmm10, %xmm10
  15126. vpslldq $8, %xmm10, %xmm9
  15127. vpsrldq $8, %xmm10, %xmm10
  15128. vpxor %xmm8, %xmm9, %xmm9
  15129. vpclmulqdq $0x11, %xmm5, %xmm6, %xmm6
  15130. vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm9, %xmm8
  15131. vpshufd $0x4e, %xmm9, %xmm9
  15132. vpxor %xmm8, %xmm9, %xmm9
  15133. vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm9, %xmm8
  15134. vpshufd $0x4e, %xmm9, %xmm9
  15135. vpxor %xmm10, %xmm6, %xmm6
  15136. vpxor %xmm9, %xmm6, %xmm6
  15137. vpxor %xmm8, %xmm6, %xmm6
  15138. L_AES_GCM_encrypt_update_avx2_last_block_done:
  15139. L_AES_GCM_encrypt_update_avx2_done_enc:
  15140. vmovdqa %xmm6, (%r9)
  15141. vmovdqa %xmm4, (%r12)
  15142. vzeroupper
  15143. addq $0x98, %rsp
  15144. popq %r14
  15145. popq %r13
  15146. popq %r12
  15147. repz retq
  15148. #ifndef __APPLE__
  15149. .size AES_GCM_encrypt_update_avx2,.-AES_GCM_encrypt_update_avx2
  15150. #endif /* __APPLE__ */
  15151. #ifndef __APPLE__
  15152. .text
  15153. .globl AES_GCM_encrypt_final_avx2
  15154. .type AES_GCM_encrypt_final_avx2,@function
  15155. .align 16
  15156. AES_GCM_encrypt_final_avx2:
  15157. #else
  15158. .section __TEXT,__text
  15159. .globl _AES_GCM_encrypt_final_avx2
  15160. .p2align 4
  15161. _AES_GCM_encrypt_final_avx2:
  15162. #endif /* __APPLE__ */
  15163. pushq %r13
  15164. movl %ecx, %r10d
  15165. movl %r8d, %r11d
  15166. movq 16(%rsp), %rax
  15167. subq $16, %rsp
  15168. vmovdqa (%rdi), %xmm4
  15169. vmovdqa (%r9), %xmm5
  15170. vmovdqa (%rax), %xmm6
  15171. vpsrlq $63, %xmm5, %xmm1
  15172. vpsllq $0x01, %xmm5, %xmm0
  15173. vpslldq $8, %xmm1, %xmm1
  15174. vpor %xmm1, %xmm0, %xmm0
  15175. vpshufd $0xff, %xmm5, %xmm5
  15176. vpsrad $31, %xmm5, %xmm5
  15177. vpand L_avx2_aes_gcm_mod2_128(%rip), %xmm5, %xmm5
  15178. vpxor %xmm0, %xmm5, %xmm5
  15179. # calc_tag
  15180. shlq $3, %r10
  15181. vpinsrq $0x00, %r10, %xmm0, %xmm0
  15182. shlq $3, %r11
  15183. vpinsrq $0x01, %r11, %xmm1, %xmm1
  15184. vpblendd $12, %xmm1, %xmm0, %xmm0
  15185. vpxor %xmm4, %xmm0, %xmm0
  15186. # ghash_gfmul_red
  15187. vpclmulqdq $16, %xmm5, %xmm0, %xmm7
  15188. vpclmulqdq $0x01, %xmm5, %xmm0, %xmm3
  15189. vpclmulqdq $0x00, %xmm5, %xmm0, %xmm2
  15190. vpxor %xmm3, %xmm7, %xmm7
  15191. vpslldq $8, %xmm7, %xmm3
  15192. vpsrldq $8, %xmm7, %xmm7
  15193. vpxor %xmm2, %xmm3, %xmm3
  15194. vpclmulqdq $0x11, %xmm5, %xmm0, %xmm0
  15195. vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm3, %xmm2
  15196. vpshufd $0x4e, %xmm3, %xmm3
  15197. vpxor %xmm2, %xmm3, %xmm3
  15198. vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm3, %xmm2
  15199. vpshufd $0x4e, %xmm3, %xmm3
  15200. vpxor %xmm7, %xmm0, %xmm0
  15201. vpxor %xmm3, %xmm0, %xmm0
  15202. vpxor %xmm2, %xmm0, %xmm0
  15203. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  15204. vpxor %xmm6, %xmm0, %xmm0
  15205. # store_tag
  15206. cmpl $16, %edx
  15207. je L_AES_GCM_encrypt_final_avx2_store_tag_16
  15208. xorq %rcx, %rcx
  15209. vmovdqu %xmm0, (%rsp)
  15210. L_AES_GCM_encrypt_final_avx2_store_tag_loop:
  15211. movzbl (%rsp,%rcx,1), %r13d
  15212. movb %r13b, (%rsi,%rcx,1)
  15213. incl %ecx
  15214. cmpl %edx, %ecx
  15215. jne L_AES_GCM_encrypt_final_avx2_store_tag_loop
  15216. jmp L_AES_GCM_encrypt_final_avx2_store_tag_done
  15217. L_AES_GCM_encrypt_final_avx2_store_tag_16:
  15218. vmovdqu %xmm0, (%rsi)
  15219. L_AES_GCM_encrypt_final_avx2_store_tag_done:
  15220. vzeroupper
  15221. addq $16, %rsp
  15222. popq %r13
  15223. repz retq
  15224. #ifndef __APPLE__
  15225. .size AES_GCM_encrypt_final_avx2,.-AES_GCM_encrypt_final_avx2
  15226. #endif /* __APPLE__ */
  15227. #ifndef __APPLE__
  15228. .text
  15229. .globl AES_GCM_decrypt_update_avx2
  15230. .type AES_GCM_decrypt_update_avx2,@function
  15231. .align 16
  15232. AES_GCM_decrypt_update_avx2:
  15233. #else
  15234. .section __TEXT,__text
  15235. .globl _AES_GCM_decrypt_update_avx2
  15236. .p2align 4
  15237. _AES_GCM_decrypt_update_avx2:
  15238. #endif /* __APPLE__ */
  15239. pushq %r13
  15240. pushq %r12
  15241. pushq %r14
  15242. movq %rdx, %r10
  15243. movq %rcx, %r11
  15244. movq 32(%rsp), %rax
  15245. movq 40(%rsp), %r12
  15246. subq $0xa8, %rsp
  15247. vmovdqa (%r9), %xmm6
  15248. vmovdqa (%rax), %xmm5
  15249. vmovdqa (%r12), %xmm4
  15250. # Calculate H
  15251. vpsrlq $63, %xmm5, %xmm1
  15252. vpsllq $0x01, %xmm5, %xmm0
  15253. vpslldq $8, %xmm1, %xmm1
  15254. vpor %xmm1, %xmm0, %xmm0
  15255. vpshufd $0xff, %xmm5, %xmm5
  15256. vpsrad $31, %xmm5, %xmm5
  15257. vpand L_avx2_aes_gcm_mod2_128(%rip), %xmm5, %xmm5
  15258. vpxor %xmm0, %xmm5, %xmm5
  15259. xorl %r14d, %r14d
  15260. cmpl $0x80, %r8d
  15261. movl %r8d, %r13d
  15262. jl L_AES_GCM_decrypt_update_avx2_done_128
  15263. andl $0xffffff80, %r13d
  15264. vmovdqa %xmm4, 128(%rsp)
  15265. vmovdqa %xmm15, 144(%rsp)
  15266. vmovdqa L_avx2_aes_gcm_mod2_128(%rip), %xmm3
  15267. # H ^ 1 and H ^ 2
  15268. vpclmulqdq $0x00, %xmm5, %xmm5, %xmm9
  15269. vpclmulqdq $0x11, %xmm5, %xmm5, %xmm10
  15270. vpclmulqdq $16, %xmm3, %xmm9, %xmm8
  15271. vpshufd $0x4e, %xmm9, %xmm9
  15272. vpxor %xmm8, %xmm9, %xmm9
  15273. vpclmulqdq $16, %xmm3, %xmm9, %xmm8
  15274. vpshufd $0x4e, %xmm9, %xmm9
  15275. vpxor %xmm8, %xmm9, %xmm9
  15276. vpxor %xmm9, %xmm10, %xmm0
  15277. vmovdqa %xmm5, (%rsp)
  15278. vmovdqa %xmm0, 16(%rsp)
  15279. # H ^ 3 and H ^ 4
  15280. vpclmulqdq $16, %xmm5, %xmm0, %xmm11
  15281. vpclmulqdq $0x01, %xmm5, %xmm0, %xmm10
  15282. vpclmulqdq $0x00, %xmm5, %xmm0, %xmm9
  15283. vpclmulqdq $0x11, %xmm5, %xmm0, %xmm12
  15284. vpclmulqdq $0x00, %xmm0, %xmm0, %xmm13
  15285. vpclmulqdq $0x11, %xmm0, %xmm0, %xmm14
  15286. vpxor %xmm10, %xmm11, %xmm11
  15287. vpslldq $8, %xmm11, %xmm10
  15288. vpsrldq $8, %xmm11, %xmm11
  15289. vpxor %xmm9, %xmm10, %xmm10
  15290. vpclmulqdq $16, %xmm3, %xmm13, %xmm8
  15291. vpclmulqdq $16, %xmm3, %xmm10, %xmm9
  15292. vpshufd $0x4e, %xmm10, %xmm10
  15293. vpshufd $0x4e, %xmm13, %xmm13
  15294. vpxor %xmm9, %xmm10, %xmm10
  15295. vpxor %xmm8, %xmm13, %xmm13
  15296. vpclmulqdq $16, %xmm3, %xmm10, %xmm9
  15297. vpclmulqdq $16, %xmm3, %xmm13, %xmm8
  15298. vpshufd $0x4e, %xmm10, %xmm10
  15299. vpshufd $0x4e, %xmm13, %xmm13
  15300. vpxor %xmm11, %xmm12, %xmm12
  15301. vpxor %xmm8, %xmm13, %xmm13
  15302. vpxor %xmm12, %xmm10, %xmm10
  15303. vpxor %xmm14, %xmm13, %xmm2
  15304. vpxor %xmm9, %xmm10, %xmm1
  15305. vmovdqa %xmm1, 32(%rsp)
  15306. vmovdqa %xmm2, 48(%rsp)
  15307. # H ^ 5 and H ^ 6
  15308. vpclmulqdq $16, %xmm0, %xmm1, %xmm11
  15309. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm10
  15310. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm9
  15311. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm12
  15312. vpclmulqdq $0x00, %xmm1, %xmm1, %xmm13
  15313. vpclmulqdq $0x11, %xmm1, %xmm1, %xmm14
  15314. vpxor %xmm10, %xmm11, %xmm11
  15315. vpslldq $8, %xmm11, %xmm10
  15316. vpsrldq $8, %xmm11, %xmm11
  15317. vpxor %xmm9, %xmm10, %xmm10
  15318. vpclmulqdq $16, %xmm3, %xmm13, %xmm8
  15319. vpclmulqdq $16, %xmm3, %xmm10, %xmm9
  15320. vpshufd $0x4e, %xmm10, %xmm10
  15321. vpshufd $0x4e, %xmm13, %xmm13
  15322. vpxor %xmm9, %xmm10, %xmm10
  15323. vpxor %xmm8, %xmm13, %xmm13
  15324. vpclmulqdq $16, %xmm3, %xmm10, %xmm9
  15325. vpclmulqdq $16, %xmm3, %xmm13, %xmm8
  15326. vpshufd $0x4e, %xmm10, %xmm10
  15327. vpshufd $0x4e, %xmm13, %xmm13
  15328. vpxor %xmm11, %xmm12, %xmm12
  15329. vpxor %xmm8, %xmm13, %xmm13
  15330. vpxor %xmm12, %xmm10, %xmm10
  15331. vpxor %xmm14, %xmm13, %xmm0
  15332. vpxor %xmm9, %xmm10, %xmm7
  15333. vmovdqa %xmm7, 64(%rsp)
  15334. vmovdqa %xmm0, 80(%rsp)
  15335. # H ^ 7 and H ^ 8
  15336. vpclmulqdq $16, %xmm1, %xmm2, %xmm11
  15337. vpclmulqdq $0x01, %xmm1, %xmm2, %xmm10
  15338. vpclmulqdq $0x00, %xmm1, %xmm2, %xmm9
  15339. vpclmulqdq $0x11, %xmm1, %xmm2, %xmm12
  15340. vpclmulqdq $0x00, %xmm2, %xmm2, %xmm13
  15341. vpclmulqdq $0x11, %xmm2, %xmm2, %xmm14
  15342. vpxor %xmm10, %xmm11, %xmm11
  15343. vpslldq $8, %xmm11, %xmm10
  15344. vpsrldq $8, %xmm11, %xmm11
  15345. vpxor %xmm9, %xmm10, %xmm10
  15346. vpclmulqdq $16, %xmm3, %xmm13, %xmm8
  15347. vpclmulqdq $16, %xmm3, %xmm10, %xmm9
  15348. vpshufd $0x4e, %xmm10, %xmm10
  15349. vpshufd $0x4e, %xmm13, %xmm13
  15350. vpxor %xmm9, %xmm10, %xmm10
  15351. vpxor %xmm8, %xmm13, %xmm13
  15352. vpclmulqdq $16, %xmm3, %xmm10, %xmm9
  15353. vpclmulqdq $16, %xmm3, %xmm13, %xmm8
  15354. vpshufd $0x4e, %xmm10, %xmm10
  15355. vpshufd $0x4e, %xmm13, %xmm13
  15356. vpxor %xmm11, %xmm12, %xmm12
  15357. vpxor %xmm8, %xmm13, %xmm13
  15358. vpxor %xmm12, %xmm10, %xmm10
  15359. vpxor %xmm14, %xmm13, %xmm0
  15360. vpxor %xmm9, %xmm10, %xmm7
  15361. vmovdqa %xmm7, 96(%rsp)
  15362. vmovdqa %xmm0, 112(%rsp)
  15363. L_AES_GCM_decrypt_update_avx2_ghash_128:
  15364. # aesenc_128_ghash
  15365. leaq (%r11,%r14,1), %rcx
  15366. leaq (%r10,%r14,1), %rdx
  15367. # aesenc_ctr
  15368. vmovdqa 128(%rsp), %xmm0
  15369. vmovdqa L_avx2_aes_gcm_bswap_epi64(%rip), %xmm1
  15370. vpaddd L_avx2_aes_gcm_one(%rip), %xmm0, %xmm9
  15371. vpshufb %xmm1, %xmm0, %xmm8
  15372. vpaddd L_avx2_aes_gcm_two(%rip), %xmm0, %xmm10
  15373. vpshufb %xmm1, %xmm9, %xmm9
  15374. vpaddd L_avx2_aes_gcm_three(%rip), %xmm0, %xmm11
  15375. vpshufb %xmm1, %xmm10, %xmm10
  15376. vpaddd L_avx2_aes_gcm_four(%rip), %xmm0, %xmm12
  15377. vpshufb %xmm1, %xmm11, %xmm11
  15378. vpaddd L_avx2_aes_gcm_five(%rip), %xmm0, %xmm13
  15379. vpshufb %xmm1, %xmm12, %xmm12
  15380. vpaddd L_avx2_aes_gcm_six(%rip), %xmm0, %xmm14
  15381. vpshufb %xmm1, %xmm13, %xmm13
  15382. vpaddd L_avx2_aes_gcm_seven(%rip), %xmm0, %xmm15
  15383. vpshufb %xmm1, %xmm14, %xmm14
  15384. vpaddd L_avx2_aes_gcm_eight(%rip), %xmm0, %xmm0
  15385. vpshufb %xmm1, %xmm15, %xmm15
  15386. # aesenc_xor
  15387. vmovdqa (%rdi), %xmm7
  15388. vmovdqa %xmm0, 128(%rsp)
  15389. vpxor %xmm7, %xmm8, %xmm8
  15390. vpxor %xmm7, %xmm9, %xmm9
  15391. vpxor %xmm7, %xmm10, %xmm10
  15392. vpxor %xmm7, %xmm11, %xmm11
  15393. vpxor %xmm7, %xmm12, %xmm12
  15394. vpxor %xmm7, %xmm13, %xmm13
  15395. vpxor %xmm7, %xmm14, %xmm14
  15396. vpxor %xmm7, %xmm15, %xmm15
  15397. # aesenc_pclmul_1
  15398. vmovdqu (%rcx), %xmm1
  15399. vmovdqu 16(%rdi), %xmm0
  15400. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
  15401. vmovdqa 112(%rsp), %xmm2
  15402. vpxor %xmm6, %xmm1, %xmm1
  15403. vpclmulqdq $16, %xmm2, %xmm1, %xmm5
  15404. vpclmulqdq $0x01, %xmm2, %xmm1, %xmm3
  15405. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm6
  15406. vpclmulqdq $0x11, %xmm2, %xmm1, %xmm7
  15407. vaesenc %xmm0, %xmm8, %xmm8
  15408. vaesenc %xmm0, %xmm9, %xmm9
  15409. vaesenc %xmm0, %xmm10, %xmm10
  15410. vaesenc %xmm0, %xmm11, %xmm11
  15411. vaesenc %xmm0, %xmm12, %xmm12
  15412. vaesenc %xmm0, %xmm13, %xmm13
  15413. vaesenc %xmm0, %xmm14, %xmm14
  15414. vaesenc %xmm0, %xmm15, %xmm15
  15415. # aesenc_pclmul_2
  15416. vmovdqu 16(%rcx), %xmm1
  15417. vmovdqa 96(%rsp), %xmm0
  15418. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
  15419. vpxor %xmm3, %xmm5, %xmm5
  15420. vpclmulqdq $16, %xmm0, %xmm1, %xmm2
  15421. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
  15422. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
  15423. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
  15424. vmovdqu 32(%rdi), %xmm0
  15425. vpxor %xmm1, %xmm7, %xmm7
  15426. vaesenc %xmm0, %xmm8, %xmm8
  15427. vaesenc %xmm0, %xmm9, %xmm9
  15428. vaesenc %xmm0, %xmm10, %xmm10
  15429. vaesenc %xmm0, %xmm11, %xmm11
  15430. vaesenc %xmm0, %xmm12, %xmm12
  15431. vaesenc %xmm0, %xmm13, %xmm13
  15432. vaesenc %xmm0, %xmm14, %xmm14
  15433. vaesenc %xmm0, %xmm15, %xmm15
  15434. # aesenc_pclmul_n
  15435. vmovdqu 32(%rcx), %xmm1
  15436. vmovdqa 80(%rsp), %xmm0
  15437. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
  15438. vpxor %xmm2, %xmm5, %xmm5
  15439. vpclmulqdq $16, %xmm0, %xmm1, %xmm2
  15440. vpxor %xmm3, %xmm5, %xmm5
  15441. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
  15442. vpxor %xmm4, %xmm6, %xmm6
  15443. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
  15444. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
  15445. vmovdqu 48(%rdi), %xmm0
  15446. vpxor %xmm1, %xmm7, %xmm7
  15447. vaesenc %xmm0, %xmm8, %xmm8
  15448. vaesenc %xmm0, %xmm9, %xmm9
  15449. vaesenc %xmm0, %xmm10, %xmm10
  15450. vaesenc %xmm0, %xmm11, %xmm11
  15451. vaesenc %xmm0, %xmm12, %xmm12
  15452. vaesenc %xmm0, %xmm13, %xmm13
  15453. vaesenc %xmm0, %xmm14, %xmm14
  15454. vaesenc %xmm0, %xmm15, %xmm15
  15455. # aesenc_pclmul_n
  15456. vmovdqu 48(%rcx), %xmm1
  15457. vmovdqa 64(%rsp), %xmm0
  15458. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
  15459. vpxor %xmm2, %xmm5, %xmm5
  15460. vpclmulqdq $16, %xmm0, %xmm1, %xmm2
  15461. vpxor %xmm3, %xmm5, %xmm5
  15462. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
  15463. vpxor %xmm4, %xmm6, %xmm6
  15464. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
  15465. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
  15466. vmovdqu 64(%rdi), %xmm0
  15467. vpxor %xmm1, %xmm7, %xmm7
  15468. vaesenc %xmm0, %xmm8, %xmm8
  15469. vaesenc %xmm0, %xmm9, %xmm9
  15470. vaesenc %xmm0, %xmm10, %xmm10
  15471. vaesenc %xmm0, %xmm11, %xmm11
  15472. vaesenc %xmm0, %xmm12, %xmm12
  15473. vaesenc %xmm0, %xmm13, %xmm13
  15474. vaesenc %xmm0, %xmm14, %xmm14
  15475. vaesenc %xmm0, %xmm15, %xmm15
  15476. # aesenc_pclmul_n
  15477. vmovdqu 64(%rcx), %xmm1
  15478. vmovdqa 48(%rsp), %xmm0
  15479. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
  15480. vpxor %xmm2, %xmm5, %xmm5
  15481. vpclmulqdq $16, %xmm0, %xmm1, %xmm2
  15482. vpxor %xmm3, %xmm5, %xmm5
  15483. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
  15484. vpxor %xmm4, %xmm6, %xmm6
  15485. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
  15486. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
  15487. vmovdqu 80(%rdi), %xmm0
  15488. vpxor %xmm1, %xmm7, %xmm7
  15489. vaesenc %xmm0, %xmm8, %xmm8
  15490. vaesenc %xmm0, %xmm9, %xmm9
  15491. vaesenc %xmm0, %xmm10, %xmm10
  15492. vaesenc %xmm0, %xmm11, %xmm11
  15493. vaesenc %xmm0, %xmm12, %xmm12
  15494. vaesenc %xmm0, %xmm13, %xmm13
  15495. vaesenc %xmm0, %xmm14, %xmm14
  15496. vaesenc %xmm0, %xmm15, %xmm15
  15497. # aesenc_pclmul_n
  15498. vmovdqu 80(%rcx), %xmm1
  15499. vmovdqa 32(%rsp), %xmm0
  15500. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
  15501. vpxor %xmm2, %xmm5, %xmm5
  15502. vpclmulqdq $16, %xmm0, %xmm1, %xmm2
  15503. vpxor %xmm3, %xmm5, %xmm5
  15504. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
  15505. vpxor %xmm4, %xmm6, %xmm6
  15506. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
  15507. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
  15508. vmovdqu 96(%rdi), %xmm0
  15509. vpxor %xmm1, %xmm7, %xmm7
  15510. vaesenc %xmm0, %xmm8, %xmm8
  15511. vaesenc %xmm0, %xmm9, %xmm9
  15512. vaesenc %xmm0, %xmm10, %xmm10
  15513. vaesenc %xmm0, %xmm11, %xmm11
  15514. vaesenc %xmm0, %xmm12, %xmm12
  15515. vaesenc %xmm0, %xmm13, %xmm13
  15516. vaesenc %xmm0, %xmm14, %xmm14
  15517. vaesenc %xmm0, %xmm15, %xmm15
  15518. # aesenc_pclmul_n
  15519. vmovdqu 96(%rcx), %xmm1
  15520. vmovdqa 16(%rsp), %xmm0
  15521. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
  15522. vpxor %xmm2, %xmm5, %xmm5
  15523. vpclmulqdq $16, %xmm0, %xmm1, %xmm2
  15524. vpxor %xmm3, %xmm5, %xmm5
  15525. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
  15526. vpxor %xmm4, %xmm6, %xmm6
  15527. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
  15528. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
  15529. vmovdqu 112(%rdi), %xmm0
  15530. vpxor %xmm1, %xmm7, %xmm7
  15531. vaesenc %xmm0, %xmm8, %xmm8
  15532. vaesenc %xmm0, %xmm9, %xmm9
  15533. vaesenc %xmm0, %xmm10, %xmm10
  15534. vaesenc %xmm0, %xmm11, %xmm11
  15535. vaesenc %xmm0, %xmm12, %xmm12
  15536. vaesenc %xmm0, %xmm13, %xmm13
  15537. vaesenc %xmm0, %xmm14, %xmm14
  15538. vaesenc %xmm0, %xmm15, %xmm15
  15539. # aesenc_pclmul_n
  15540. vmovdqu 112(%rcx), %xmm1
  15541. vmovdqa (%rsp), %xmm0
  15542. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
  15543. vpxor %xmm2, %xmm5, %xmm5
  15544. vpclmulqdq $16, %xmm0, %xmm1, %xmm2
  15545. vpxor %xmm3, %xmm5, %xmm5
  15546. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
  15547. vpxor %xmm4, %xmm6, %xmm6
  15548. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
  15549. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
  15550. vmovdqu 128(%rdi), %xmm0
  15551. vpxor %xmm1, %xmm7, %xmm7
  15552. vaesenc %xmm0, %xmm8, %xmm8
  15553. vaesenc %xmm0, %xmm9, %xmm9
  15554. vaesenc %xmm0, %xmm10, %xmm10
  15555. vaesenc %xmm0, %xmm11, %xmm11
  15556. vaesenc %xmm0, %xmm12, %xmm12
  15557. vaesenc %xmm0, %xmm13, %xmm13
  15558. vaesenc %xmm0, %xmm14, %xmm14
  15559. vaesenc %xmm0, %xmm15, %xmm15
  15560. # aesenc_pclmul_l
  15561. vpxor %xmm2, %xmm5, %xmm5
  15562. vpxor %xmm4, %xmm6, %xmm6
  15563. vpxor %xmm3, %xmm5, %xmm5
  15564. vpslldq $8, %xmm5, %xmm1
  15565. vpsrldq $8, %xmm5, %xmm5
  15566. vmovdqa 144(%rdi), %xmm4
  15567. vmovdqa L_avx2_aes_gcm_mod2_128(%rip), %xmm0
  15568. vaesenc %xmm4, %xmm8, %xmm8
  15569. vpxor %xmm1, %xmm6, %xmm6
  15570. vpxor %xmm5, %xmm7, %xmm7
  15571. vpclmulqdq $16, %xmm0, %xmm6, %xmm3
  15572. vaesenc %xmm4, %xmm9, %xmm9
  15573. vaesenc %xmm4, %xmm10, %xmm10
  15574. vaesenc %xmm4, %xmm11, %xmm11
  15575. vpshufd $0x4e, %xmm6, %xmm6
  15576. vpxor %xmm3, %xmm6, %xmm6
  15577. vpclmulqdq $16, %xmm0, %xmm6, %xmm3
  15578. vaesenc %xmm4, %xmm12, %xmm12
  15579. vaesenc %xmm4, %xmm13, %xmm13
  15580. vaesenc %xmm4, %xmm14, %xmm14
  15581. vpshufd $0x4e, %xmm6, %xmm6
  15582. vpxor %xmm3, %xmm6, %xmm6
  15583. vpxor %xmm7, %xmm6, %xmm6
  15584. vaesenc %xmm4, %xmm15, %xmm15
  15585. cmpl $11, %esi
  15586. vmovdqa 160(%rdi), %xmm7
  15587. jl L_AES_GCM_decrypt_update_avx2_aesenc_128_ghash_avx_done
  15588. vaesenc %xmm7, %xmm8, %xmm8
  15589. vaesenc %xmm7, %xmm9, %xmm9
  15590. vaesenc %xmm7, %xmm10, %xmm10
  15591. vaesenc %xmm7, %xmm11, %xmm11
  15592. vaesenc %xmm7, %xmm12, %xmm12
  15593. vaesenc %xmm7, %xmm13, %xmm13
  15594. vaesenc %xmm7, %xmm14, %xmm14
  15595. vaesenc %xmm7, %xmm15, %xmm15
  15596. vmovdqa 176(%rdi), %xmm7
  15597. vaesenc %xmm7, %xmm8, %xmm8
  15598. vaesenc %xmm7, %xmm9, %xmm9
  15599. vaesenc %xmm7, %xmm10, %xmm10
  15600. vaesenc %xmm7, %xmm11, %xmm11
  15601. vaesenc %xmm7, %xmm12, %xmm12
  15602. vaesenc %xmm7, %xmm13, %xmm13
  15603. vaesenc %xmm7, %xmm14, %xmm14
  15604. vaesenc %xmm7, %xmm15, %xmm15
  15605. cmpl $13, %esi
  15606. vmovdqa 192(%rdi), %xmm7
  15607. jl L_AES_GCM_decrypt_update_avx2_aesenc_128_ghash_avx_done
  15608. vaesenc %xmm7, %xmm8, %xmm8
  15609. vaesenc %xmm7, %xmm9, %xmm9
  15610. vaesenc %xmm7, %xmm10, %xmm10
  15611. vaesenc %xmm7, %xmm11, %xmm11
  15612. vaesenc %xmm7, %xmm12, %xmm12
  15613. vaesenc %xmm7, %xmm13, %xmm13
  15614. vaesenc %xmm7, %xmm14, %xmm14
  15615. vaesenc %xmm7, %xmm15, %xmm15
  15616. vmovdqa 208(%rdi), %xmm7
  15617. vaesenc %xmm7, %xmm8, %xmm8
  15618. vaesenc %xmm7, %xmm9, %xmm9
  15619. vaesenc %xmm7, %xmm10, %xmm10
  15620. vaesenc %xmm7, %xmm11, %xmm11
  15621. vaesenc %xmm7, %xmm12, %xmm12
  15622. vaesenc %xmm7, %xmm13, %xmm13
  15623. vaesenc %xmm7, %xmm14, %xmm14
  15624. vaesenc %xmm7, %xmm15, %xmm15
  15625. vmovdqa 224(%rdi), %xmm7
  15626. L_AES_GCM_decrypt_update_avx2_aesenc_128_ghash_avx_done:
  15627. # aesenc_last
  15628. vaesenclast %xmm7, %xmm8, %xmm8
  15629. vaesenclast %xmm7, %xmm9, %xmm9
  15630. vaesenclast %xmm7, %xmm10, %xmm10
  15631. vaesenclast %xmm7, %xmm11, %xmm11
  15632. vmovdqu (%rcx), %xmm0
  15633. vmovdqu 16(%rcx), %xmm1
  15634. vmovdqu 32(%rcx), %xmm2
  15635. vmovdqu 48(%rcx), %xmm3
  15636. vpxor %xmm0, %xmm8, %xmm8
  15637. vpxor %xmm1, %xmm9, %xmm9
  15638. vpxor %xmm2, %xmm10, %xmm10
  15639. vpxor %xmm3, %xmm11, %xmm11
  15640. vmovdqu %xmm8, (%rdx)
  15641. vmovdqu %xmm9, 16(%rdx)
  15642. vmovdqu %xmm10, 32(%rdx)
  15643. vmovdqu %xmm11, 48(%rdx)
  15644. vaesenclast %xmm7, %xmm12, %xmm12
  15645. vaesenclast %xmm7, %xmm13, %xmm13
  15646. vaesenclast %xmm7, %xmm14, %xmm14
  15647. vaesenclast %xmm7, %xmm15, %xmm15
  15648. vmovdqu 64(%rcx), %xmm0
  15649. vmovdqu 80(%rcx), %xmm1
  15650. vmovdqu 96(%rcx), %xmm2
  15651. vmovdqu 112(%rcx), %xmm3
  15652. vpxor %xmm0, %xmm12, %xmm12
  15653. vpxor %xmm1, %xmm13, %xmm13
  15654. vpxor %xmm2, %xmm14, %xmm14
  15655. vpxor %xmm3, %xmm15, %xmm15
  15656. vmovdqu %xmm12, 64(%rdx)
  15657. vmovdqu %xmm13, 80(%rdx)
  15658. vmovdqu %xmm14, 96(%rdx)
  15659. vmovdqu %xmm15, 112(%rdx)
  15660. # aesenc_128_ghash - end
  15661. addl $0x80, %r14d
  15662. cmpl %r13d, %r14d
  15663. jl L_AES_GCM_decrypt_update_avx2_ghash_128
  15664. vmovdqa (%rsp), %xmm5
  15665. vmovdqa 128(%rsp), %xmm4
  15666. vmovdqa 144(%rsp), %xmm15
  15667. L_AES_GCM_decrypt_update_avx2_done_128:
  15668. cmpl %r8d, %r14d
  15669. jge L_AES_GCM_decrypt_update_avx2_done_dec
  15670. movl %r8d, %r13d
  15671. andl $0xfffffff0, %r13d
  15672. cmpl %r13d, %r14d
  15673. jge L_AES_GCM_decrypt_update_avx2_last_block_done
  15674. L_AES_GCM_decrypt_update_avx2_last_block_start:
  15675. vmovdqu (%r11,%r14,1), %xmm11
  15676. vpshufb L_avx2_aes_gcm_bswap_epi64(%rip), %xmm4, %xmm10
  15677. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm11, %xmm12
  15678. vpaddd L_avx2_aes_gcm_one(%rip), %xmm4, %xmm4
  15679. vpxor %xmm6, %xmm12, %xmm12
  15680. # aesenc_gfmul_sb
  15681. vpclmulqdq $0x01, %xmm5, %xmm12, %xmm2
  15682. vpclmulqdq $16, %xmm5, %xmm12, %xmm3
  15683. vpclmulqdq $0x00, %xmm5, %xmm12, %xmm1
  15684. vpclmulqdq $0x11, %xmm5, %xmm12, %xmm8
  15685. vpxor (%rdi), %xmm10, %xmm10
  15686. vaesenc 16(%rdi), %xmm10, %xmm10
  15687. vpxor %xmm2, %xmm3, %xmm3
  15688. vpslldq $8, %xmm3, %xmm2
  15689. vpsrldq $8, %xmm3, %xmm3
  15690. vaesenc 32(%rdi), %xmm10, %xmm10
  15691. vpxor %xmm1, %xmm2, %xmm2
  15692. vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm2, %xmm1
  15693. vaesenc 48(%rdi), %xmm10, %xmm10
  15694. vaesenc 64(%rdi), %xmm10, %xmm10
  15695. vaesenc 80(%rdi), %xmm10, %xmm10
  15696. vpshufd $0x4e, %xmm2, %xmm2
  15697. vpxor %xmm1, %xmm2, %xmm2
  15698. vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm2, %xmm1
  15699. vaesenc 96(%rdi), %xmm10, %xmm10
  15700. vaesenc 112(%rdi), %xmm10, %xmm10
  15701. vaesenc 128(%rdi), %xmm10, %xmm10
  15702. vpshufd $0x4e, %xmm2, %xmm2
  15703. vaesenc 144(%rdi), %xmm10, %xmm10
  15704. vpxor %xmm3, %xmm8, %xmm8
  15705. vpxor %xmm8, %xmm2, %xmm2
  15706. vmovdqa 160(%rdi), %xmm0
  15707. cmpl $11, %esi
  15708. jl L_AES_GCM_decrypt_update_avx2_aesenc_gfmul_sb_last
  15709. vaesenc %xmm0, %xmm10, %xmm10
  15710. vaesenc 176(%rdi), %xmm10, %xmm10
  15711. vmovdqa 192(%rdi), %xmm0
  15712. cmpl $13, %esi
  15713. jl L_AES_GCM_decrypt_update_avx2_aesenc_gfmul_sb_last
  15714. vaesenc %xmm0, %xmm10, %xmm10
  15715. vaesenc 208(%rdi), %xmm10, %xmm10
  15716. vmovdqa 224(%rdi), %xmm0
  15717. L_AES_GCM_decrypt_update_avx2_aesenc_gfmul_sb_last:
  15718. vaesenclast %xmm0, %xmm10, %xmm10
  15719. vpxor %xmm1, %xmm2, %xmm6
  15720. vpxor %xmm11, %xmm10, %xmm10
  15721. vmovdqu %xmm10, (%r10,%r14,1)
  15722. addl $16, %r14d
  15723. cmpl %r13d, %r14d
  15724. jl L_AES_GCM_decrypt_update_avx2_last_block_start
  15725. L_AES_GCM_decrypt_update_avx2_last_block_done:
  15726. L_AES_GCM_decrypt_update_avx2_done_dec:
  15727. vmovdqa %xmm6, (%r9)
  15728. vmovdqa %xmm4, (%r12)
  15729. vzeroupper
  15730. addq $0xa8, %rsp
  15731. popq %r14
  15732. popq %r12
  15733. popq %r13
  15734. repz retq
  15735. #ifndef __APPLE__
  15736. .size AES_GCM_decrypt_update_avx2,.-AES_GCM_decrypt_update_avx2
  15737. #endif /* __APPLE__ */
  15738. #ifndef __APPLE__
  15739. .text
  15740. .globl AES_GCM_decrypt_final_avx2
  15741. .type AES_GCM_decrypt_final_avx2,@function
  15742. .align 16
  15743. AES_GCM_decrypt_final_avx2:
  15744. #else
  15745. .section __TEXT,__text
  15746. .globl _AES_GCM_decrypt_final_avx2
  15747. .p2align 4
  15748. _AES_GCM_decrypt_final_avx2:
  15749. #endif /* __APPLE__ */
  15750. pushq %r13
  15751. pushq %rbp
  15752. movl %ecx, %r10d
  15753. movl %r8d, %r11d
  15754. movq 24(%rsp), %rax
  15755. movq 32(%rsp), %rbp
  15756. subq $16, %rsp
  15757. vmovdqa (%rdi), %xmm4
  15758. vmovdqa (%r9), %xmm5
  15759. vmovdqa (%rax), %xmm6
  15760. vpsrlq $63, %xmm5, %xmm1
  15761. vpsllq $0x01, %xmm5, %xmm0
  15762. vpslldq $8, %xmm1, %xmm1
  15763. vpor %xmm1, %xmm0, %xmm0
  15764. vpshufd $0xff, %xmm5, %xmm5
  15765. vpsrad $31, %xmm5, %xmm5
  15766. vpand L_avx2_aes_gcm_mod2_128(%rip), %xmm5, %xmm5
  15767. vpxor %xmm0, %xmm5, %xmm5
  15768. # calc_tag
  15769. shlq $3, %r10
  15770. vpinsrq $0x00, %r10, %xmm0, %xmm0
  15771. shlq $3, %r11
  15772. vpinsrq $0x01, %r11, %xmm1, %xmm1
  15773. vpblendd $12, %xmm1, %xmm0, %xmm0
  15774. vpxor %xmm4, %xmm0, %xmm0
  15775. # ghash_gfmul_red
  15776. vpclmulqdq $16, %xmm5, %xmm0, %xmm7
  15777. vpclmulqdq $0x01, %xmm5, %xmm0, %xmm3
  15778. vpclmulqdq $0x00, %xmm5, %xmm0, %xmm2
  15779. vpxor %xmm3, %xmm7, %xmm7
  15780. vpslldq $8, %xmm7, %xmm3
  15781. vpsrldq $8, %xmm7, %xmm7
  15782. vpxor %xmm2, %xmm3, %xmm3
  15783. vpclmulqdq $0x11, %xmm5, %xmm0, %xmm0
  15784. vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm3, %xmm2
  15785. vpshufd $0x4e, %xmm3, %xmm3
  15786. vpxor %xmm2, %xmm3, %xmm3
  15787. vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm3, %xmm2
  15788. vpshufd $0x4e, %xmm3, %xmm3
  15789. vpxor %xmm7, %xmm0, %xmm0
  15790. vpxor %xmm3, %xmm0, %xmm0
  15791. vpxor %xmm2, %xmm0, %xmm0
  15792. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  15793. vpxor %xmm6, %xmm0, %xmm0
  15794. # cmp_tag
  15795. cmpl $16, %edx
  15796. je L_AES_GCM_decrypt_final_avx2_cmp_tag_16
  15797. xorq %rcx, %rcx
  15798. xorq %r9, %r9
  15799. vmovdqu %xmm0, (%rsp)
  15800. L_AES_GCM_decrypt_final_avx2_cmp_tag_loop:
  15801. movzbl (%rsp,%rcx,1), %r13d
  15802. xorb (%rsi,%rcx,1), %r13b
  15803. orb %r13b, %r9b
  15804. incl %ecx
  15805. cmpl %edx, %ecx
  15806. jne L_AES_GCM_decrypt_final_avx2_cmp_tag_loop
  15807. cmpb $0x00, %r9b
  15808. sete %r9b
  15809. jmp L_AES_GCM_decrypt_final_avx2_cmp_tag_done
  15810. L_AES_GCM_decrypt_final_avx2_cmp_tag_16:
  15811. vmovdqu (%rsi), %xmm1
  15812. vpcmpeqb %xmm1, %xmm0, %xmm0
  15813. vpmovmskb %xmm0, %rcx
  15814. # %%edx == 0xFFFF then return 1 else => return 0
  15815. xorl %r9d, %r9d
  15816. cmpl $0xffff, %ecx
  15817. sete %r9b
  15818. L_AES_GCM_decrypt_final_avx2_cmp_tag_done:
  15819. movl %r9d, (%rbp)
  15820. vzeroupper
  15821. addq $16, %rsp
  15822. popq %rbp
  15823. popq %r13
  15824. repz retq
  15825. #ifndef __APPLE__
  15826. .size AES_GCM_decrypt_final_avx2,.-AES_GCM_decrypt_final_avx2
  15827. #endif /* __APPLE__ */
  15828. #endif /* WOLFSSL_AESGCM_STREAM */
  15829. #endif /* HAVE_INTEL_AVX2 */
  15830. #if defined(__linux__) && defined(__ELF__)
  15831. .section .note.GNU-stack,"",%progbits
  15832. #endif