aes_gcm_asm.S 513 KB

12345678910111213141516171819202122232425262728293031323334353637383940414243444546474849505152535455565758596061626364656667686970717273747576777879808182838485868788899091929394959697989910010110210310410510610710810911011111211311411511611711811912012112212312412512612712812913013113213313413513613713813914014114214314414514614714814915015115215315415515615715815916016116216316416516616716816917017117217317417517617717817918018118218318418518618718818919019119219319419519619719819920020120220320420520620720820921021121221321421521621721821922022122222322422522622722822923023123223323423523623723823924024124224324424524624724824925025125225325425525625725825926026126226326426526626726826927027127227327427527627727827928028128228328428528628728828929029129229329429529629729829930030130230330430530630730830931031131231331431531631731831932032132232332432532632732832933033133233333433533633733833934034134234334434534634734834935035135235335435535635735835936036136236336436536636736836937037137237337437537637737837938038138238338438538638738838939039139239339439539639739839940040140240340440540640740840941041141241341441541641741841942042142242342442542642742842943043143243343443543643743843944044144244344444544644744844945045145245345445545645745845946046146246346446546646746846947047147247347447547647747847948048148248348448548648748848949049149249349449549649749849950050150250350450550650750850951051151251351451551651751851952052152252352452552652752852953053153253353453553653753853954054154254354454554654754854955055155255355455555655755855956056156256356456556656756856957057157257357457557657757857958058158258358458558658758858959059159259359459559659759859960060160260360460560660760860961061161261361461561661761861962062162262362462562662762862963063163263363463563663763863964064164264364464564664764864965065165265365465565665765865966066166266366466566666766866967067167267367467567667767867968068168268368468568668768868969069169269369469569669769869970070170270370470570670770870971071171271371471571671771871972072172272372472572672772872973073173273373473573673773873974074174274374474574674774874975075175275375475575675775875976076176276376476576676776876977077177277377477577677777877978078178278378478578678778878979079179279379479579679779879980080180280380480580680780880981081181281381481581681781881982082182282382482582682782882983083183283383483583683783883984084184284384484584684784884985085185285385485585685785885986086186286386486586686786886987087187287387487587687787887988088188288388488588688788888989089189289389489589689789889990090190290390490590690790890991091191291391491591691791891992092192292392492592692792892993093193293393493593693793893994094194294394494594694794894995095195295395495595695795895996096196296396496596696796896997097197297397497597697797897998098198298398498598698798898999099199299399499599699799899910001001100210031004100510061007100810091010101110121013101410151016101710181019102010211022102310241025102610271028102910301031103210331034103510361037103810391040104110421043104410451046104710481049105010511052105310541055105610571058105910601061106210631064106510661067106810691070107110721073107410751076107710781079108010811082108310841085108610871088108910901091109210931094109510961097109810991100110111021103110411051106110711081109111011111112111311141115111611171118111911201121112211231124112511261127112811291130113111321133113411351136113711381139114011411142114311441145114611471148114911501151115211531154115511561157115811591160116111621163116411651166116711681169117011711172117311741175117611771178117911801181118211831184118511861187118811891190119111921193119411951196119711981199120012011202120312041205120612071208120912101211121212131214121512161217121812191220122112221223122412251226122712281229123012311232123312341235123612371238123912401241124212431244124512461247124812491250125112521253125412551256125712581259126012611262126312641265126612671268126912701271127212731274127512761277127812791280128112821283128412851286128712881289129012911292129312941295129612971298129913001301130213031304130513061307130813091310131113121313131413151316131713181319132013211322132313241325132613271328132913301331133213331334133513361337133813391340134113421343134413451346134713481349135013511352135313541355135613571358135913601361136213631364136513661367136813691370137113721373137413751376137713781379138013811382138313841385138613871388138913901391139213931394139513961397139813991400140114021403140414051406140714081409141014111412141314141415141614171418141914201421142214231424142514261427142814291430143114321433143414351436143714381439144014411442144314441445144614471448144914501451145214531454145514561457145814591460146114621463146414651466146714681469147014711472147314741475147614771478147914801481148214831484148514861487148814891490149114921493149414951496149714981499150015011502150315041505150615071508150915101511151215131514151515161517151815191520152115221523152415251526152715281529153015311532153315341535153615371538153915401541154215431544154515461547154815491550155115521553155415551556155715581559156015611562156315641565156615671568156915701571157215731574157515761577157815791580158115821583158415851586158715881589159015911592159315941595159615971598159916001601160216031604160516061607160816091610161116121613161416151616161716181619162016211622162316241625162616271628162916301631163216331634163516361637163816391640164116421643164416451646164716481649165016511652165316541655165616571658165916601661166216631664166516661667166816691670167116721673167416751676167716781679168016811682168316841685168616871688168916901691169216931694169516961697169816991700170117021703170417051706170717081709171017111712171317141715171617171718171917201721172217231724172517261727172817291730173117321733173417351736173717381739174017411742174317441745174617471748174917501751175217531754175517561757175817591760176117621763176417651766176717681769177017711772177317741775177617771778177917801781178217831784178517861787178817891790179117921793179417951796179717981799180018011802180318041805180618071808180918101811181218131814181518161817181818191820182118221823182418251826182718281829183018311832183318341835183618371838183918401841184218431844184518461847184818491850185118521853185418551856185718581859186018611862186318641865186618671868186918701871187218731874187518761877187818791880188118821883188418851886188718881889189018911892189318941895189618971898189919001901190219031904190519061907190819091910191119121913191419151916191719181919192019211922192319241925192619271928192919301931193219331934193519361937193819391940194119421943194419451946194719481949195019511952195319541955195619571958195919601961196219631964196519661967196819691970197119721973197419751976197719781979198019811982198319841985198619871988198919901991199219931994199519961997199819992000200120022003200420052006200720082009201020112012201320142015201620172018201920202021202220232024202520262027202820292030203120322033203420352036203720382039204020412042204320442045204620472048204920502051205220532054205520562057205820592060206120622063206420652066206720682069207020712072207320742075207620772078207920802081208220832084208520862087208820892090209120922093209420952096209720982099210021012102210321042105210621072108210921102111211221132114211521162117211821192120212121222123212421252126212721282129213021312132213321342135213621372138213921402141214221432144214521462147214821492150215121522153215421552156215721582159216021612162216321642165216621672168216921702171217221732174217521762177217821792180218121822183218421852186218721882189219021912192219321942195219621972198219922002201220222032204220522062207220822092210221122122213221422152216221722182219222022212222222322242225222622272228222922302231223222332234223522362237223822392240224122422243224422452246224722482249225022512252225322542255225622572258225922602261226222632264226522662267226822692270227122722273227422752276227722782279228022812282228322842285228622872288228922902291229222932294229522962297229822992300230123022303230423052306230723082309231023112312231323142315231623172318231923202321232223232324232523262327232823292330233123322333233423352336233723382339234023412342234323442345234623472348234923502351235223532354235523562357235823592360236123622363236423652366236723682369237023712372237323742375237623772378237923802381238223832384238523862387238823892390239123922393239423952396239723982399240024012402240324042405240624072408240924102411241224132414241524162417241824192420242124222423242424252426242724282429243024312432243324342435243624372438243924402441244224432444244524462447244824492450245124522453245424552456245724582459246024612462246324642465246624672468246924702471247224732474247524762477247824792480248124822483248424852486248724882489249024912492249324942495249624972498249925002501250225032504250525062507250825092510251125122513251425152516251725182519252025212522252325242525252625272528252925302531253225332534253525362537253825392540254125422543254425452546254725482549255025512552255325542555255625572558255925602561256225632564256525662567256825692570257125722573257425752576257725782579258025812582258325842585258625872588258925902591259225932594259525962597259825992600260126022603260426052606260726082609261026112612261326142615261626172618261926202621262226232624262526262627262826292630263126322633263426352636263726382639264026412642264326442645264626472648264926502651265226532654265526562657265826592660266126622663266426652666266726682669267026712672267326742675267626772678267926802681268226832684268526862687268826892690269126922693269426952696269726982699270027012702270327042705270627072708270927102711271227132714271527162717271827192720272127222723272427252726272727282729273027312732273327342735273627372738273927402741274227432744274527462747274827492750275127522753275427552756275727582759276027612762276327642765276627672768276927702771277227732774277527762777277827792780278127822783278427852786278727882789279027912792279327942795279627972798279928002801280228032804280528062807280828092810281128122813281428152816281728182819282028212822282328242825282628272828282928302831283228332834283528362837283828392840284128422843284428452846284728482849285028512852285328542855285628572858285928602861286228632864286528662867286828692870287128722873287428752876287728782879288028812882288328842885288628872888288928902891289228932894289528962897289828992900290129022903290429052906290729082909291029112912291329142915291629172918291929202921292229232924292529262927292829292930293129322933293429352936293729382939294029412942294329442945294629472948294929502951295229532954295529562957295829592960296129622963296429652966296729682969297029712972297329742975297629772978297929802981298229832984298529862987298829892990299129922993299429952996299729982999300030013002300330043005300630073008300930103011301230133014301530163017301830193020302130223023302430253026302730283029303030313032303330343035303630373038303930403041304230433044304530463047304830493050305130523053305430553056305730583059306030613062306330643065306630673068306930703071307230733074307530763077307830793080308130823083308430853086308730883089309030913092309330943095309630973098309931003101310231033104310531063107310831093110311131123113311431153116311731183119312031213122312331243125312631273128312931303131313231333134313531363137313831393140314131423143314431453146314731483149315031513152315331543155315631573158315931603161316231633164316531663167316831693170317131723173317431753176317731783179318031813182318331843185318631873188318931903191319231933194319531963197319831993200320132023203320432053206320732083209321032113212321332143215321632173218321932203221322232233224322532263227322832293230323132323233323432353236323732383239324032413242324332443245324632473248324932503251325232533254325532563257325832593260326132623263326432653266326732683269327032713272327332743275327632773278327932803281328232833284328532863287328832893290329132923293329432953296329732983299330033013302330333043305330633073308330933103311331233133314331533163317331833193320332133223323332433253326332733283329333033313332333333343335333633373338333933403341334233433344334533463347334833493350335133523353335433553356335733583359336033613362336333643365336633673368336933703371337233733374337533763377337833793380338133823383338433853386338733883389339033913392339333943395339633973398339934003401340234033404340534063407340834093410341134123413341434153416341734183419342034213422342334243425342634273428342934303431343234333434343534363437343834393440344134423443344434453446344734483449345034513452345334543455345634573458345934603461346234633464346534663467346834693470347134723473347434753476347734783479348034813482348334843485348634873488348934903491349234933494349534963497349834993500350135023503350435053506350735083509351035113512351335143515351635173518351935203521352235233524352535263527352835293530353135323533353435353536353735383539354035413542354335443545354635473548354935503551355235533554355535563557355835593560356135623563356435653566356735683569357035713572357335743575357635773578357935803581358235833584358535863587358835893590359135923593359435953596359735983599360036013602360336043605360636073608360936103611361236133614361536163617361836193620362136223623362436253626362736283629363036313632363336343635363636373638363936403641364236433644364536463647364836493650365136523653365436553656365736583659366036613662366336643665366636673668366936703671367236733674367536763677367836793680368136823683368436853686368736883689369036913692369336943695369636973698369937003701370237033704370537063707370837093710371137123713371437153716371737183719372037213722372337243725372637273728372937303731373237333734373537363737373837393740374137423743374437453746374737483749375037513752375337543755375637573758375937603761376237633764376537663767376837693770377137723773377437753776377737783779378037813782378337843785378637873788378937903791379237933794379537963797379837993800380138023803380438053806380738083809381038113812381338143815381638173818381938203821382238233824382538263827382838293830383138323833383438353836383738383839384038413842384338443845384638473848384938503851385238533854385538563857385838593860386138623863386438653866386738683869387038713872387338743875387638773878387938803881388238833884388538863887388838893890389138923893389438953896389738983899390039013902390339043905390639073908390939103911391239133914391539163917391839193920392139223923392439253926392739283929393039313932393339343935393639373938393939403941394239433944394539463947394839493950395139523953395439553956395739583959396039613962396339643965396639673968396939703971397239733974397539763977397839793980398139823983398439853986398739883989399039913992399339943995399639973998399940004001400240034004400540064007400840094010401140124013401440154016401740184019402040214022402340244025402640274028402940304031403240334034403540364037403840394040404140424043404440454046404740484049405040514052405340544055405640574058405940604061406240634064406540664067406840694070407140724073407440754076407740784079408040814082408340844085408640874088408940904091409240934094409540964097409840994100410141024103410441054106410741084109411041114112411341144115411641174118411941204121412241234124412541264127412841294130413141324133413441354136413741384139414041414142414341444145414641474148414941504151415241534154415541564157415841594160416141624163416441654166416741684169417041714172417341744175417641774178417941804181418241834184418541864187418841894190419141924193419441954196419741984199420042014202420342044205420642074208420942104211421242134214421542164217421842194220422142224223422442254226422742284229423042314232423342344235423642374238423942404241424242434244424542464247424842494250425142524253425442554256425742584259426042614262426342644265426642674268426942704271427242734274427542764277427842794280428142824283428442854286428742884289429042914292429342944295429642974298429943004301430243034304430543064307430843094310431143124313431443154316431743184319432043214322432343244325432643274328432943304331433243334334433543364337433843394340434143424343434443454346434743484349435043514352435343544355435643574358435943604361436243634364436543664367436843694370437143724373437443754376437743784379438043814382438343844385438643874388438943904391439243934394439543964397439843994400440144024403440444054406440744084409441044114412441344144415441644174418441944204421442244234424442544264427442844294430443144324433443444354436443744384439444044414442444344444445444644474448444944504451445244534454445544564457445844594460446144624463446444654466446744684469447044714472447344744475447644774478447944804481448244834484448544864487448844894490449144924493449444954496449744984499450045014502450345044505450645074508450945104511451245134514451545164517451845194520452145224523452445254526452745284529453045314532453345344535453645374538453945404541454245434544454545464547454845494550455145524553455445554556455745584559456045614562456345644565456645674568456945704571457245734574457545764577457845794580458145824583458445854586458745884589459045914592459345944595459645974598459946004601460246034604460546064607460846094610461146124613461446154616461746184619462046214622462346244625462646274628462946304631463246334634463546364637463846394640464146424643464446454646464746484649465046514652465346544655465646574658465946604661466246634664466546664667466846694670467146724673467446754676467746784679468046814682468346844685468646874688468946904691469246934694469546964697469846994700470147024703470447054706470747084709471047114712471347144715471647174718471947204721472247234724472547264727472847294730473147324733473447354736473747384739474047414742474347444745474647474748474947504751475247534754475547564757475847594760476147624763476447654766476747684769477047714772477347744775477647774778477947804781478247834784478547864787478847894790479147924793479447954796479747984799480048014802480348044805480648074808480948104811481248134814481548164817481848194820482148224823482448254826482748284829483048314832483348344835483648374838483948404841484248434844484548464847484848494850485148524853485448554856485748584859486048614862486348644865486648674868486948704871487248734874487548764877487848794880488148824883488448854886488748884889489048914892489348944895489648974898489949004901490249034904490549064907490849094910491149124913491449154916491749184919492049214922492349244925492649274928492949304931493249334934493549364937493849394940494149424943494449454946494749484949495049514952495349544955495649574958495949604961496249634964496549664967496849694970497149724973497449754976497749784979498049814982498349844985498649874988498949904991499249934994499549964997499849995000500150025003500450055006500750085009501050115012501350145015501650175018501950205021502250235024502550265027502850295030503150325033503450355036503750385039504050415042504350445045504650475048504950505051505250535054505550565057505850595060506150625063506450655066506750685069507050715072507350745075507650775078507950805081508250835084508550865087508850895090509150925093509450955096509750985099510051015102510351045105510651075108510951105111511251135114511551165117511851195120512151225123512451255126512751285129513051315132513351345135513651375138513951405141514251435144514551465147514851495150515151525153515451555156515751585159516051615162516351645165516651675168516951705171517251735174517551765177517851795180518151825183518451855186518751885189519051915192519351945195519651975198519952005201520252035204520552065207520852095210521152125213521452155216521752185219522052215222522352245225522652275228522952305231523252335234523552365237523852395240524152425243524452455246524752485249525052515252525352545255525652575258525952605261526252635264526552665267526852695270527152725273527452755276527752785279528052815282528352845285528652875288528952905291529252935294529552965297529852995300530153025303530453055306530753085309531053115312531353145315531653175318531953205321532253235324532553265327532853295330533153325333533453355336533753385339534053415342534353445345534653475348534953505351535253535354535553565357535853595360536153625363536453655366536753685369537053715372537353745375537653775378537953805381538253835384538553865387538853895390539153925393539453955396539753985399540054015402540354045405540654075408540954105411541254135414541554165417541854195420542154225423542454255426542754285429543054315432543354345435543654375438543954405441544254435444544554465447544854495450545154525453545454555456545754585459546054615462546354645465546654675468546954705471547254735474547554765477547854795480548154825483548454855486548754885489549054915492549354945495549654975498549955005501550255035504550555065507550855095510551155125513551455155516551755185519552055215522552355245525552655275528552955305531553255335534553555365537553855395540554155425543554455455546554755485549555055515552555355545555555655575558555955605561556255635564556555665567556855695570557155725573557455755576557755785579558055815582558355845585558655875588558955905591559255935594559555965597559855995600560156025603560456055606560756085609561056115612561356145615561656175618561956205621562256235624562556265627562856295630563156325633563456355636563756385639564056415642564356445645564656475648564956505651565256535654565556565657565856595660566156625663566456655666566756685669567056715672567356745675567656775678567956805681568256835684568556865687568856895690569156925693569456955696569756985699570057015702570357045705570657075708570957105711571257135714571557165717571857195720572157225723572457255726572757285729573057315732573357345735573657375738573957405741574257435744574557465747574857495750575157525753575457555756575757585759576057615762576357645765576657675768576957705771577257735774577557765777577857795780578157825783578457855786578757885789579057915792579357945795579657975798579958005801580258035804580558065807580858095810581158125813581458155816581758185819582058215822582358245825582658275828582958305831583258335834583558365837583858395840584158425843584458455846584758485849585058515852585358545855585658575858585958605861586258635864586558665867586858695870587158725873587458755876587758785879588058815882588358845885588658875888588958905891589258935894589558965897589858995900590159025903590459055906590759085909591059115912591359145915591659175918591959205921592259235924592559265927592859295930593159325933593459355936593759385939594059415942594359445945594659475948594959505951595259535954595559565957595859595960596159625963596459655966596759685969597059715972597359745975597659775978597959805981598259835984598559865987598859895990599159925993599459955996599759985999600060016002600360046005600660076008600960106011601260136014601560166017601860196020602160226023602460256026602760286029603060316032603360346035603660376038603960406041604260436044604560466047604860496050605160526053605460556056605760586059606060616062606360646065606660676068606960706071607260736074607560766077607860796080608160826083608460856086608760886089609060916092609360946095609660976098609961006101610261036104610561066107610861096110611161126113611461156116611761186119612061216122612361246125612661276128612961306131613261336134613561366137613861396140614161426143614461456146614761486149615061516152615361546155615661576158615961606161616261636164616561666167616861696170617161726173617461756176617761786179618061816182618361846185618661876188618961906191619261936194619561966197619861996200620162026203620462056206620762086209621062116212621362146215621662176218621962206221622262236224622562266227622862296230623162326233623462356236623762386239624062416242624362446245624662476248624962506251625262536254625562566257625862596260626162626263626462656266626762686269627062716272627362746275627662776278627962806281628262836284628562866287628862896290629162926293629462956296629762986299630063016302630363046305630663076308630963106311631263136314631563166317631863196320632163226323632463256326632763286329633063316332633363346335633663376338633963406341634263436344634563466347634863496350635163526353635463556356635763586359636063616362636363646365636663676368636963706371637263736374637563766377637863796380638163826383638463856386638763886389639063916392639363946395639663976398639964006401640264036404640564066407640864096410641164126413641464156416641764186419642064216422642364246425642664276428642964306431643264336434643564366437643864396440644164426443644464456446644764486449645064516452645364546455645664576458645964606461646264636464646564666467646864696470647164726473647464756476647764786479648064816482648364846485648664876488648964906491649264936494649564966497649864996500650165026503650465056506650765086509651065116512651365146515651665176518651965206521652265236524652565266527652865296530653165326533653465356536653765386539654065416542654365446545654665476548654965506551655265536554655565566557655865596560656165626563656465656566656765686569657065716572657365746575657665776578657965806581658265836584658565866587658865896590659165926593659465956596659765986599660066016602660366046605660666076608660966106611661266136614661566166617661866196620662166226623662466256626662766286629663066316632663366346635663666376638663966406641664266436644664566466647664866496650665166526653665466556656665766586659666066616662666366646665666666676668666966706671667266736674667566766677667866796680668166826683668466856686668766886689669066916692669366946695669666976698669967006701670267036704670567066707670867096710671167126713671467156716671767186719672067216722672367246725672667276728672967306731673267336734673567366737673867396740674167426743674467456746674767486749675067516752675367546755675667576758675967606761676267636764676567666767676867696770677167726773677467756776677767786779678067816782678367846785678667876788678967906791679267936794679567966797679867996800680168026803680468056806680768086809681068116812681368146815681668176818681968206821682268236824682568266827682868296830683168326833683468356836683768386839684068416842684368446845684668476848684968506851685268536854685568566857685868596860686168626863686468656866686768686869687068716872687368746875687668776878687968806881688268836884688568866887688868896890689168926893689468956896689768986899690069016902690369046905690669076908690969106911691269136914691569166917691869196920692169226923692469256926692769286929693069316932693369346935693669376938693969406941694269436944694569466947694869496950695169526953695469556956695769586959696069616962696369646965696669676968696969706971697269736974697569766977697869796980698169826983698469856986698769886989699069916992699369946995699669976998699970007001700270037004700570067007700870097010701170127013701470157016701770187019702070217022702370247025702670277028702970307031703270337034703570367037703870397040704170427043704470457046704770487049705070517052705370547055705670577058705970607061706270637064706570667067706870697070707170727073707470757076707770787079708070817082708370847085708670877088708970907091709270937094709570967097709870997100710171027103710471057106710771087109711071117112711371147115711671177118711971207121712271237124712571267127712871297130713171327133713471357136713771387139714071417142714371447145714671477148714971507151715271537154715571567157715871597160716171627163716471657166716771687169717071717172717371747175717671777178717971807181718271837184718571867187718871897190719171927193719471957196719771987199720072017202720372047205720672077208720972107211721272137214721572167217721872197220722172227223722472257226722772287229723072317232723372347235723672377238723972407241724272437244724572467247724872497250725172527253725472557256725772587259726072617262726372647265726672677268726972707271727272737274727572767277727872797280728172827283728472857286728772887289729072917292729372947295729672977298729973007301730273037304730573067307730873097310731173127313731473157316731773187319732073217322732373247325732673277328732973307331733273337334733573367337733873397340734173427343734473457346734773487349735073517352735373547355735673577358735973607361736273637364736573667367736873697370737173727373737473757376737773787379738073817382738373847385738673877388738973907391739273937394739573967397739873997400740174027403740474057406740774087409741074117412741374147415741674177418741974207421742274237424742574267427742874297430743174327433743474357436743774387439744074417442744374447445744674477448744974507451745274537454745574567457745874597460746174627463746474657466746774687469747074717472747374747475747674777478747974807481748274837484748574867487748874897490749174927493749474957496749774987499750075017502750375047505750675077508750975107511751275137514751575167517751875197520752175227523752475257526752775287529753075317532753375347535753675377538753975407541754275437544754575467547754875497550755175527553755475557556755775587559756075617562756375647565756675677568756975707571757275737574757575767577757875797580758175827583758475857586758775887589759075917592759375947595759675977598759976007601760276037604760576067607760876097610761176127613761476157616761776187619762076217622762376247625762676277628762976307631763276337634763576367637763876397640764176427643764476457646764776487649765076517652765376547655765676577658765976607661766276637664766576667667766876697670767176727673767476757676767776787679768076817682768376847685768676877688768976907691769276937694769576967697769876997700770177027703770477057706770777087709771077117712771377147715771677177718771977207721772277237724772577267727772877297730773177327733773477357736773777387739774077417742774377447745774677477748774977507751775277537754775577567757775877597760776177627763776477657766776777687769777077717772777377747775777677777778777977807781778277837784778577867787778877897790779177927793779477957796779777987799780078017802780378047805780678077808780978107811781278137814781578167817781878197820782178227823782478257826782778287829783078317832783378347835783678377838783978407841784278437844784578467847784878497850785178527853785478557856785778587859786078617862786378647865786678677868786978707871787278737874787578767877787878797880788178827883788478857886788778887889789078917892789378947895789678977898789979007901790279037904790579067907790879097910791179127913791479157916791779187919792079217922792379247925792679277928792979307931793279337934793579367937793879397940794179427943794479457946794779487949795079517952795379547955795679577958795979607961796279637964796579667967796879697970797179727973797479757976797779787979798079817982798379847985798679877988798979907991799279937994799579967997799879998000800180028003800480058006800780088009801080118012801380148015801680178018801980208021802280238024802580268027802880298030803180328033803480358036803780388039804080418042804380448045804680478048804980508051805280538054805580568057805880598060806180628063806480658066806780688069807080718072807380748075807680778078807980808081808280838084808580868087808880898090809180928093809480958096809780988099810081018102810381048105810681078108810981108111811281138114811581168117811881198120812181228123812481258126812781288129813081318132813381348135813681378138813981408141814281438144814581468147814881498150815181528153815481558156815781588159816081618162816381648165816681678168816981708171817281738174817581768177817881798180818181828183818481858186818781888189819081918192819381948195819681978198819982008201820282038204820582068207820882098210821182128213821482158216821782188219822082218222822382248225822682278228822982308231823282338234823582368237823882398240824182428243824482458246824782488249825082518252825382548255825682578258825982608261826282638264826582668267826882698270827182728273827482758276827782788279828082818282828382848285828682878288828982908291829282938294829582968297829882998300830183028303830483058306830783088309831083118312831383148315831683178318831983208321832283238324832583268327832883298330833183328333833483358336833783388339834083418342834383448345834683478348834983508351835283538354835583568357835883598360836183628363836483658366836783688369837083718372837383748375837683778378837983808381838283838384838583868387838883898390839183928393839483958396839783988399840084018402840384048405840684078408840984108411841284138414841584168417841884198420842184228423842484258426842784288429843084318432843384348435843684378438843984408441844284438444844584468447844884498450845184528453845484558456845784588459846084618462846384648465846684678468846984708471847284738474847584768477847884798480848184828483848484858486848784888489849084918492849384948495849684978498849985008501850285038504850585068507850885098510851185128513851485158516851785188519852085218522852385248525852685278528852985308531853285338534853585368537853885398540854185428543854485458546854785488549855085518552855385548555855685578558855985608561856285638564856585668567856885698570857185728573857485758576857785788579858085818582858385848585858685878588858985908591859285938594859585968597859885998600860186028603860486058606860786088609861086118612861386148615861686178618861986208621862286238624862586268627862886298630863186328633863486358636863786388639864086418642864386448645864686478648864986508651865286538654865586568657865886598660866186628663866486658666866786688669867086718672867386748675867686778678867986808681868286838684868586868687868886898690869186928693869486958696869786988699870087018702870387048705870687078708870987108711871287138714871587168717871887198720872187228723872487258726872787288729873087318732873387348735873687378738873987408741874287438744874587468747874887498750875187528753875487558756875787588759876087618762876387648765876687678768876987708771877287738774877587768777877887798780878187828783878487858786878787888789879087918792879387948795879687978798879988008801880288038804880588068807880888098810881188128813881488158816881788188819882088218822882388248825882688278828882988308831883288338834883588368837883888398840884188428843884488458846884788488849885088518852885388548855885688578858885988608861886288638864886588668867886888698870887188728873887488758876887788788879888088818882888388848885888688878888888988908891889288938894889588968897889888998900890189028903890489058906890789088909891089118912891389148915891689178918891989208921892289238924892589268927892889298930893189328933893489358936893789388939894089418942894389448945894689478948894989508951895289538954895589568957895889598960896189628963896489658966896789688969897089718972897389748975897689778978897989808981898289838984898589868987898889898990899189928993899489958996899789988999900090019002900390049005900690079008900990109011901290139014901590169017901890199020902190229023902490259026902790289029903090319032903390349035903690379038903990409041904290439044904590469047904890499050905190529053905490559056905790589059906090619062906390649065906690679068906990709071907290739074907590769077907890799080908190829083908490859086908790889089909090919092909390949095909690979098909991009101910291039104910591069107910891099110911191129113911491159116911791189119912091219122912391249125912691279128912991309131913291339134913591369137913891399140914191429143914491459146914791489149915091519152915391549155915691579158915991609161916291639164916591669167916891699170917191729173917491759176917791789179918091819182918391849185918691879188918991909191919291939194919591969197919891999200920192029203920492059206920792089209921092119212921392149215921692179218921992209221922292239224922592269227922892299230923192329233923492359236923792389239924092419242924392449245924692479248924992509251925292539254925592569257925892599260926192629263926492659266926792689269927092719272927392749275927692779278927992809281928292839284928592869287928892899290929192929293929492959296929792989299930093019302930393049305930693079308930993109311931293139314931593169317931893199320932193229323932493259326932793289329933093319332933393349335933693379338933993409341934293439344934593469347934893499350935193529353935493559356935793589359936093619362936393649365936693679368936993709371937293739374937593769377937893799380938193829383938493859386938793889389939093919392939393949395939693979398939994009401940294039404940594069407940894099410941194129413941494159416941794189419942094219422942394249425942694279428942994309431943294339434943594369437943894399440944194429443944494459446944794489449945094519452945394549455945694579458945994609461946294639464946594669467946894699470947194729473947494759476947794789479948094819482948394849485948694879488948994909491949294939494949594969497949894999500950195029503950495059506950795089509951095119512951395149515951695179518951995209521952295239524952595269527952895299530953195329533953495359536953795389539954095419542954395449545954695479548954995509551955295539554955595569557955895599560956195629563956495659566956795689569957095719572957395749575957695779578957995809581958295839584958595869587958895899590959195929593959495959596959795989599960096019602960396049605960696079608960996109611961296139614961596169617961896199620962196229623962496259626962796289629963096319632963396349635963696379638963996409641964296439644964596469647964896499650965196529653965496559656965796589659966096619662966396649665966696679668966996709671967296739674967596769677967896799680968196829683968496859686968796889689969096919692969396949695969696979698969997009701970297039704970597069707970897099710971197129713971497159716971797189719972097219722972397249725972697279728972997309731973297339734973597369737973897399740974197429743974497459746974797489749975097519752975397549755975697579758975997609761976297639764976597669767976897699770977197729773977497759776977797789779978097819782978397849785978697879788978997909791979297939794979597969797979897999800980198029803980498059806980798089809981098119812981398149815981698179818981998209821982298239824982598269827982898299830983198329833983498359836983798389839984098419842984398449845984698479848984998509851985298539854985598569857985898599860986198629863986498659866986798689869987098719872987398749875987698779878987998809881988298839884988598869887988898899890989198929893989498959896989798989899990099019902990399049905990699079908990999109911991299139914991599169917991899199920992199229923992499259926992799289929993099319932993399349935993699379938993999409941994299439944994599469947994899499950995199529953995499559956995799589959996099619962996399649965996699679968996999709971997299739974997599769977997899799980998199829983998499859986998799889989999099919992999399949995999699979998999910000100011000210003100041000510006100071000810009100101001110012100131001410015100161001710018100191002010021100221002310024100251002610027100281002910030100311003210033100341003510036100371003810039100401004110042100431004410045100461004710048100491005010051100521005310054100551005610057100581005910060100611006210063100641006510066100671006810069100701007110072100731007410075100761007710078100791008010081100821008310084100851008610087100881008910090100911009210093100941009510096100971009810099101001010110102101031010410105101061010710108101091011010111101121011310114101151011610117101181011910120101211012210123101241012510126101271012810129101301013110132101331013410135101361013710138101391014010141101421014310144101451014610147101481014910150101511015210153101541015510156101571015810159101601016110162101631016410165101661016710168101691017010171101721017310174101751017610177101781017910180101811018210183101841018510186101871018810189101901019110192101931019410195101961019710198101991020010201102021020310204102051020610207102081020910210102111021210213102141021510216102171021810219102201022110222102231022410225102261022710228102291023010231102321023310234102351023610237102381023910240102411024210243102441024510246102471024810249102501025110252102531025410255102561025710258102591026010261102621026310264102651026610267102681026910270102711027210273102741027510276102771027810279102801028110282102831028410285102861028710288102891029010291102921029310294102951029610297102981029910300103011030210303103041030510306103071030810309103101031110312103131031410315103161031710318103191032010321103221032310324103251032610327103281032910330103311033210333103341033510336103371033810339103401034110342103431034410345103461034710348103491035010351103521035310354103551035610357103581035910360103611036210363103641036510366103671036810369103701037110372103731037410375103761037710378103791038010381103821038310384103851038610387103881038910390103911039210393103941039510396103971039810399104001040110402104031040410405104061040710408104091041010411104121041310414104151041610417104181041910420104211042210423104241042510426104271042810429104301043110432104331043410435104361043710438104391044010441104421044310444104451044610447104481044910450104511045210453104541045510456104571045810459104601046110462104631046410465104661046710468104691047010471104721047310474104751047610477104781047910480104811048210483104841048510486104871048810489104901049110492104931049410495104961049710498104991050010501105021050310504105051050610507105081050910510105111051210513105141051510516105171051810519105201052110522105231052410525105261052710528105291053010531105321053310534105351053610537105381053910540105411054210543105441054510546105471054810549105501055110552105531055410555105561055710558105591056010561105621056310564105651056610567105681056910570105711057210573105741057510576105771057810579105801058110582105831058410585105861058710588105891059010591105921059310594105951059610597105981059910600106011060210603106041060510606106071060810609106101061110612106131061410615106161061710618106191062010621106221062310624106251062610627106281062910630106311063210633106341063510636106371063810639106401064110642106431064410645106461064710648106491065010651106521065310654106551065610657106581065910660106611066210663106641066510666106671066810669106701067110672106731067410675106761067710678106791068010681106821068310684106851068610687106881068910690106911069210693106941069510696106971069810699107001070110702107031070410705107061070710708107091071010711107121071310714107151071610717107181071910720107211072210723107241072510726107271072810729107301073110732107331073410735107361073710738107391074010741107421074310744107451074610747107481074910750107511075210753107541075510756107571075810759107601076110762107631076410765107661076710768107691077010771107721077310774107751077610777107781077910780107811078210783107841078510786107871078810789107901079110792107931079410795107961079710798107991080010801108021080310804108051080610807108081080910810108111081210813108141081510816108171081810819108201082110822108231082410825108261082710828108291083010831108321083310834108351083610837108381083910840108411084210843108441084510846108471084810849108501085110852108531085410855108561085710858108591086010861108621086310864108651086610867108681086910870108711087210873108741087510876108771087810879108801088110882108831088410885108861088710888108891089010891108921089310894108951089610897108981089910900109011090210903109041090510906109071090810909109101091110912109131091410915109161091710918109191092010921109221092310924109251092610927109281092910930109311093210933109341093510936109371093810939109401094110942109431094410945109461094710948109491095010951109521095310954109551095610957109581095910960109611096210963109641096510966109671096810969109701097110972109731097410975109761097710978109791098010981109821098310984109851098610987109881098910990109911099210993109941099510996109971099810999110001100111002110031100411005110061100711008110091101011011110121101311014110151101611017110181101911020110211102211023110241102511026110271102811029110301103111032110331103411035110361103711038110391104011041110421104311044110451104611047110481104911050110511105211053110541105511056110571105811059110601106111062110631106411065110661106711068110691107011071110721107311074110751107611077110781107911080110811108211083110841108511086110871108811089110901109111092110931109411095110961109711098110991110011101111021110311104111051110611107111081110911110111111111211113111141111511116111171111811119111201112111122111231112411125111261112711128111291113011131111321113311134111351113611137111381113911140111411114211143111441114511146111471114811149111501115111152111531115411155111561115711158111591116011161111621116311164111651116611167111681116911170111711117211173111741117511176111771117811179111801118111182111831118411185111861118711188111891119011191111921119311194111951119611197111981119911200112011120211203112041120511206112071120811209112101121111212112131121411215112161121711218112191122011221112221122311224112251122611227112281122911230112311123211233112341123511236112371123811239112401124111242112431124411245112461124711248112491125011251112521125311254112551125611257112581125911260112611126211263112641126511266112671126811269112701127111272112731127411275112761127711278112791128011281112821128311284112851128611287112881128911290112911129211293112941129511296112971129811299113001130111302113031130411305113061130711308113091131011311113121131311314113151131611317113181131911320113211132211323113241132511326113271132811329113301133111332113331133411335113361133711338113391134011341113421134311344113451134611347113481134911350113511135211353113541135511356113571135811359113601136111362113631136411365113661136711368113691137011371113721137311374113751137611377113781137911380113811138211383113841138511386113871138811389113901139111392113931139411395113961139711398113991140011401114021140311404114051140611407114081140911410114111141211413114141141511416114171141811419114201142111422114231142411425114261142711428114291143011431114321143311434114351143611437114381143911440114411144211443114441144511446114471144811449114501145111452114531145411455114561145711458114591146011461114621146311464114651146611467114681146911470114711147211473114741147511476114771147811479114801148111482114831148411485114861148711488114891149011491114921149311494114951149611497114981149911500115011150211503115041150511506115071150811509115101151111512115131151411515115161151711518115191152011521115221152311524115251152611527115281152911530115311153211533115341153511536115371153811539115401154111542115431154411545115461154711548115491155011551115521155311554115551155611557115581155911560115611156211563115641156511566115671156811569115701157111572115731157411575115761157711578115791158011581115821158311584115851158611587115881158911590115911159211593115941159511596115971159811599116001160111602116031160411605116061160711608116091161011611116121161311614116151161611617116181161911620116211162211623116241162511626116271162811629116301163111632116331163411635116361163711638116391164011641116421164311644116451164611647116481164911650116511165211653116541165511656116571165811659116601166111662116631166411665116661166711668116691167011671116721167311674116751167611677116781167911680116811168211683116841168511686116871168811689116901169111692116931169411695116961169711698116991170011701117021170311704117051170611707117081170911710117111171211713117141171511716117171171811719117201172111722117231172411725117261172711728117291173011731117321173311734117351173611737117381173911740117411174211743117441174511746117471174811749117501175111752117531175411755117561175711758117591176011761117621176311764117651176611767117681176911770117711177211773117741177511776117771177811779117801178111782117831178411785117861178711788117891179011791117921179311794117951179611797117981179911800118011180211803118041180511806118071180811809118101181111812118131181411815118161181711818118191182011821118221182311824118251182611827118281182911830118311183211833118341183511836118371183811839118401184111842118431184411845118461184711848118491185011851118521185311854118551185611857118581185911860118611186211863118641186511866118671186811869118701187111872118731187411875118761187711878118791188011881118821188311884118851188611887118881188911890118911189211893118941189511896118971189811899119001190111902119031190411905119061190711908119091191011911119121191311914119151191611917119181191911920119211192211923119241192511926119271192811929119301193111932119331193411935119361193711938119391194011941119421194311944119451194611947119481194911950119511195211953119541195511956119571195811959119601196111962119631196411965119661196711968119691197011971119721197311974119751197611977119781197911980119811198211983119841198511986119871198811989119901199111992119931199411995119961199711998119991200012001120021200312004120051200612007120081200912010120111201212013120141201512016120171201812019120201202112022120231202412025120261202712028120291203012031120321203312034120351203612037120381203912040120411204212043120441204512046120471204812049120501205112052120531205412055120561205712058120591206012061120621206312064120651206612067120681206912070120711207212073120741207512076120771207812079120801208112082120831208412085120861208712088120891209012091120921209312094120951209612097120981209912100121011210212103121041210512106121071210812109121101211112112121131211412115121161211712118121191212012121121221212312124121251212612127121281212912130121311213212133121341213512136121371213812139121401214112142121431214412145121461214712148121491215012151121521215312154121551215612157121581215912160121611216212163121641216512166121671216812169121701217112172121731217412175121761217712178121791218012181121821218312184121851218612187121881218912190121911219212193121941219512196121971219812199122001220112202122031220412205122061220712208122091221012211122121221312214122151221612217122181221912220122211222212223122241222512226122271222812229122301223112232122331223412235122361223712238122391224012241122421224312244122451224612247122481224912250122511225212253122541225512256122571225812259122601226112262122631226412265122661226712268122691227012271122721227312274122751227612277122781227912280122811228212283122841228512286122871228812289122901229112292122931229412295122961229712298122991230012301123021230312304123051230612307123081230912310123111231212313123141231512316123171231812319123201232112322123231232412325123261232712328123291233012331123321233312334123351233612337123381233912340123411234212343123441234512346123471234812349123501235112352123531235412355123561235712358123591236012361123621236312364123651236612367123681236912370123711237212373123741237512376123771237812379123801238112382123831238412385123861238712388123891239012391123921239312394123951239612397123981239912400124011240212403124041240512406124071240812409124101241112412124131241412415124161241712418124191242012421124221242312424124251242612427124281242912430124311243212433124341243512436124371243812439124401244112442124431244412445124461244712448124491245012451124521245312454124551245612457124581245912460124611246212463124641246512466124671246812469124701247112472124731247412475124761247712478124791248012481124821248312484124851248612487124881248912490124911249212493124941249512496124971249812499125001250112502125031250412505125061250712508125091251012511125121251312514125151251612517125181251912520125211252212523125241252512526125271252812529125301253112532125331253412535125361253712538125391254012541125421254312544125451254612547125481254912550125511255212553125541255512556125571255812559125601256112562125631256412565125661256712568125691257012571125721257312574125751257612577125781257912580125811258212583125841258512586125871258812589125901259112592125931259412595125961259712598125991260012601126021260312604126051260612607126081260912610126111261212613126141261512616126171261812619126201262112622126231262412625126261262712628126291263012631126321263312634126351263612637126381263912640126411264212643126441264512646126471264812649126501265112652126531265412655126561265712658126591266012661126621266312664126651266612667126681266912670126711267212673126741267512676126771267812679126801268112682126831268412685126861268712688126891269012691126921269312694126951269612697126981269912700127011270212703127041270512706127071270812709127101271112712127131271412715127161271712718127191272012721127221272312724127251272612727127281272912730127311273212733127341273512736127371273812739127401274112742127431274412745127461274712748127491275012751127521275312754127551275612757127581275912760127611276212763127641276512766127671276812769127701277112772127731277412775127761277712778127791278012781127821278312784127851278612787127881278912790127911279212793127941279512796127971279812799128001280112802128031280412805128061280712808128091281012811128121281312814128151281612817128181281912820128211282212823128241282512826128271282812829128301283112832128331283412835128361283712838128391284012841128421284312844128451284612847128481284912850128511285212853128541285512856128571285812859128601286112862128631286412865128661286712868128691287012871128721287312874128751287612877128781287912880128811288212883128841288512886128871288812889128901289112892128931289412895128961289712898128991290012901129021290312904129051290612907129081290912910129111291212913129141291512916129171291812919129201292112922129231292412925129261292712928129291293012931129321293312934129351293612937129381293912940129411294212943129441294512946129471294812949129501295112952129531295412955129561295712958129591296012961129621296312964129651296612967129681296912970129711297212973129741297512976129771297812979129801298112982129831298412985129861298712988129891299012991129921299312994129951299612997129981299913000130011300213003130041300513006130071300813009130101301113012130131301413015130161301713018130191302013021130221302313024130251302613027130281302913030130311303213033130341303513036130371303813039130401304113042130431304413045130461304713048130491305013051130521305313054130551305613057130581305913060130611306213063130641306513066130671306813069130701307113072130731307413075130761307713078130791308013081130821308313084130851308613087130881308913090130911309213093130941309513096130971309813099131001310113102131031310413105131061310713108131091311013111131121311313114131151311613117131181311913120131211312213123131241312513126131271312813129131301313113132131331313413135131361313713138131391314013141131421314313144131451314613147131481314913150131511315213153131541315513156131571315813159131601316113162131631316413165131661316713168131691317013171131721317313174131751317613177131781317913180131811318213183131841318513186131871318813189131901319113192131931319413195131961319713198131991320013201132021320313204132051320613207132081320913210132111321213213132141321513216132171321813219132201322113222132231322413225132261322713228132291323013231132321323313234132351323613237132381323913240132411324213243132441324513246132471324813249132501325113252132531325413255132561325713258132591326013261132621326313264132651326613267132681326913270132711327213273132741327513276132771327813279132801328113282132831328413285132861328713288132891329013291132921329313294132951329613297132981329913300133011330213303133041330513306133071330813309133101331113312133131331413315133161331713318133191332013321133221332313324133251332613327133281332913330133311333213333133341333513336133371333813339133401334113342133431334413345133461334713348133491335013351133521335313354133551335613357133581335913360133611336213363133641336513366133671336813369133701337113372133731337413375133761337713378133791338013381133821338313384133851338613387133881338913390133911339213393133941339513396133971339813399134001340113402134031340413405134061340713408134091341013411134121341313414134151341613417134181341913420134211342213423134241342513426134271342813429134301343113432134331343413435134361343713438134391344013441134421344313444134451344613447134481344913450134511345213453134541345513456134571345813459134601346113462134631346413465134661346713468134691347013471134721347313474134751347613477134781347913480134811348213483134841348513486134871348813489134901349113492134931349413495134961349713498134991350013501135021350313504135051350613507135081350913510135111351213513135141351513516135171351813519135201352113522135231352413525135261352713528135291353013531135321353313534135351353613537135381353913540135411354213543135441354513546135471354813549135501355113552135531355413555135561355713558135591356013561135621356313564135651356613567135681356913570135711357213573135741357513576135771357813579135801358113582135831358413585135861358713588135891359013591135921359313594135951359613597135981359913600136011360213603136041360513606136071360813609136101361113612136131361413615136161361713618136191362013621136221362313624136251362613627136281362913630136311363213633136341363513636136371363813639136401364113642136431364413645136461364713648136491365013651136521365313654136551365613657136581365913660136611366213663136641366513666136671366813669136701367113672136731367413675136761367713678136791368013681136821368313684136851368613687136881368913690136911369213693136941369513696136971369813699137001370113702137031370413705137061370713708137091371013711137121371313714137151371613717137181371913720137211372213723137241372513726137271372813729137301373113732137331373413735137361373713738137391374013741137421374313744137451374613747137481374913750137511375213753137541375513756137571375813759137601376113762137631376413765137661376713768137691377013771137721377313774137751377613777137781377913780137811378213783137841378513786137871378813789137901379113792137931379413795137961379713798137991380013801138021380313804138051380613807138081380913810138111381213813138141381513816138171381813819138201382113822138231382413825138261382713828138291383013831138321383313834138351383613837138381383913840138411384213843138441384513846138471384813849138501385113852138531385413855138561385713858138591386013861138621386313864138651386613867138681386913870138711387213873138741387513876138771387813879138801388113882138831388413885138861388713888138891389013891138921389313894138951389613897138981389913900139011390213903139041390513906139071390813909139101391113912139131391413915139161391713918139191392013921139221392313924139251392613927139281392913930139311393213933139341393513936139371393813939139401394113942139431394413945139461394713948139491395013951139521395313954139551395613957139581395913960139611396213963139641396513966139671396813969139701397113972139731397413975139761397713978139791398013981139821398313984139851398613987139881398913990139911399213993139941399513996139971399813999140001400114002140031400414005140061400714008140091401014011140121401314014140151401614017140181401914020140211402214023140241402514026140271402814029140301403114032140331403414035140361403714038140391404014041140421404314044140451404614047140481404914050140511405214053140541405514056140571405814059140601406114062140631406414065140661406714068140691407014071140721407314074140751407614077140781407914080140811408214083140841408514086140871408814089140901409114092140931409414095140961409714098140991410014101141021410314104141051410614107141081410914110141111411214113141141411514116141171411814119141201412114122141231412414125141261412714128141291413014131141321413314134141351413614137141381413914140141411414214143141441414514146141471414814149141501415114152141531415414155141561415714158141591416014161141621416314164141651416614167141681416914170141711417214173141741417514176141771417814179141801418114182141831418414185141861418714188141891419014191141921419314194141951419614197141981419914200142011420214203142041420514206142071420814209142101421114212142131421414215142161421714218142191422014221142221422314224142251422614227142281422914230142311423214233142341423514236142371423814239142401424114242142431424414245142461424714248142491425014251142521425314254142551425614257142581425914260142611426214263142641426514266142671426814269142701427114272142731427414275142761427714278142791428014281142821428314284142851428614287142881428914290142911429214293142941429514296142971429814299143001430114302143031430414305143061430714308143091431014311143121431314314143151431614317143181431914320143211432214323143241432514326143271432814329143301433114332143331433414335143361433714338143391434014341143421434314344143451434614347143481434914350143511435214353143541435514356143571435814359143601436114362143631436414365143661436714368143691437014371143721437314374143751437614377143781437914380143811438214383143841438514386143871438814389143901439114392143931439414395143961439714398143991440014401144021440314404144051440614407144081440914410144111441214413144141441514416144171441814419144201442114422144231442414425144261442714428144291443014431144321443314434144351443614437144381443914440144411444214443144441444514446144471444814449144501445114452144531445414455144561445714458144591446014461144621446314464144651446614467144681446914470144711447214473144741447514476144771447814479144801448114482144831448414485144861448714488144891449014491144921449314494144951449614497144981449914500145011450214503145041450514506145071450814509145101451114512145131451414515145161451714518145191452014521145221452314524145251452614527145281452914530145311453214533145341453514536145371453814539145401454114542145431454414545145461454714548145491455014551145521455314554145551455614557145581455914560145611456214563145641456514566145671456814569145701457114572145731457414575145761457714578145791458014581145821458314584145851458614587145881458914590145911459214593145941459514596145971459814599146001460114602146031460414605146061460714608146091461014611146121461314614146151461614617146181461914620146211462214623146241462514626146271462814629146301463114632146331463414635146361463714638146391464014641146421464314644146451464614647146481464914650146511465214653146541465514656146571465814659146601466114662146631466414665146661466714668146691467014671146721467314674146751467614677146781467914680146811468214683146841468514686146871468814689146901469114692146931469414695146961469714698146991470014701147021470314704147051470614707147081470914710147111471214713147141471514716147171471814719147201472114722147231472414725147261472714728147291473014731147321473314734147351473614737147381473914740147411474214743147441474514746147471474814749147501475114752147531475414755147561475714758147591476014761147621476314764147651476614767147681476914770147711477214773147741477514776147771477814779147801478114782147831478414785147861478714788147891479014791147921479314794147951479614797147981479914800148011480214803148041480514806148071480814809148101481114812148131481414815148161481714818148191482014821148221482314824148251482614827148281482914830148311483214833148341483514836148371483814839148401484114842148431484414845148461484714848148491485014851148521485314854148551485614857148581485914860148611486214863148641486514866148671486814869148701487114872148731487414875148761487714878148791488014881148821488314884148851488614887148881488914890148911489214893148941489514896148971489814899149001490114902149031490414905149061490714908149091491014911149121491314914149151491614917149181491914920149211492214923149241492514926149271492814929149301493114932149331493414935149361493714938149391494014941149421494314944149451494614947149481494914950149511495214953149541495514956149571495814959149601496114962149631496414965149661496714968149691497014971149721497314974149751497614977149781497914980149811498214983149841498514986149871498814989149901499114992149931499414995149961499714998149991500015001150021500315004150051500615007150081500915010150111501215013150141501515016150171501815019150201502115022150231502415025150261502715028150291503015031150321503315034150351503615037150381503915040150411504215043150441504515046150471504815049150501505115052150531505415055150561505715058150591506015061150621506315064150651506615067150681506915070150711507215073150741507515076150771507815079150801508115082150831508415085150861508715088150891509015091150921509315094150951509615097150981509915100151011510215103151041510515106151071510815109151101511115112151131511415115151161511715118151191512015121151221512315124151251512615127151281512915130151311513215133151341513515136151371513815139151401514115142151431514415145151461514715148151491515015151151521515315154151551515615157151581515915160151611516215163151641516515166151671516815169151701517115172151731517415175151761517715178151791518015181151821518315184151851518615187151881518915190151911519215193151941519515196151971519815199152001520115202152031520415205152061520715208152091521015211152121521315214152151521615217152181521915220152211522215223152241522515226152271522815229152301523115232152331523415235152361523715238152391524015241152421524315244152451524615247152481524915250152511525215253152541525515256152571525815259152601526115262152631526415265152661526715268152691527015271152721527315274152751527615277152781527915280152811528215283152841528515286152871528815289152901529115292152931529415295152961529715298152991530015301153021530315304153051530615307153081530915310153111531215313153141531515316153171531815319153201532115322153231532415325153261532715328153291533015331153321533315334153351533615337153381533915340153411534215343153441534515346153471534815349153501535115352153531535415355153561535715358153591536015361153621536315364153651536615367153681536915370153711537215373153741537515376153771537815379153801538115382153831538415385153861538715388153891539015391153921539315394153951539615397153981539915400154011540215403154041540515406154071540815409154101541115412154131541415415154161541715418154191542015421154221542315424154251542615427154281542915430154311543215433154341543515436154371543815439154401544115442154431544415445154461544715448154491545015451154521545315454154551545615457154581545915460154611546215463154641546515466154671546815469154701547115472154731547415475154761547715478154791548015481154821548315484154851548615487154881548915490154911549215493154941549515496154971549815499155001550115502155031550415505155061550715508155091551015511155121551315514155151551615517155181551915520155211552215523155241552515526155271552815529155301553115532155331553415535155361553715538155391554015541155421554315544155451554615547155481554915550155511555215553155541555515556155571555815559155601556115562155631556415565155661556715568155691557015571155721557315574155751557615577155781557915580155811558215583155841558515586155871558815589155901559115592155931559415595155961559715598155991560015601156021560315604156051560615607156081560915610156111561215613156141561515616156171561815619156201562115622156231562415625156261562715628156291563015631156321563315634156351563615637156381563915640156411564215643156441564515646156471564815649156501565115652156531565415655156561565715658156591566015661156621566315664156651566615667156681566915670156711567215673156741567515676156771567815679156801568115682156831568415685156861568715688156891569015691156921569315694156951569615697156981569915700157011570215703157041570515706157071570815709157101571115712157131571415715157161571715718157191572015721157221572315724157251572615727157281572915730157311573215733157341573515736157371573815739157401574115742157431574415745157461574715748157491575015751157521575315754157551575615757157581575915760157611576215763157641576515766157671576815769157701577115772157731577415775157761577715778157791578015781157821578315784157851578615787157881578915790157911579215793157941579515796157971579815799158001580115802158031580415805158061580715808158091581015811158121581315814158151581615817158181581915820158211582215823158241582515826158271582815829158301583115832158331583415835158361583715838158391584015841158421584315844158451584615847158481584915850158511585215853158541585515856
  1. /* aes_gcm_asm
  2. *
  3. * Copyright (C) 2006-2022 wolfSSL Inc.
  4. *
  5. * This file is part of wolfSSL.
  6. *
  7. * wolfSSL is free software; you can redistribute it and/or modify
  8. * it under the terms of the GNU General Public License as published by
  9. * the Free Software Foundation; either version 2 of the License, or
  10. * (at your option) any later version.
  11. *
  12. * wolfSSL is distributed in the hope that it will be useful,
  13. * but WITHOUT ANY WARRANTY; without even the implied warranty of
  14. * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE. See the
  15. * GNU General Public License for more details.
  16. *
  17. * You should have received a copy of the GNU General Public License
  18. * along with this program; if not, write to the Free Software
  19. * Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1335, USA
  20. */
  21. #ifdef WOLFSSL_USER_SETTINGS
  22. #ifdef WOLFSSL_USER_SETTINGS_ASM
  23. /*
  24. * user_settings_asm.h is a file generated by the script user_settings_asm.sh.
  25. * The script takes in a user_settings.h and produces user_settings_asm.h, which
  26. * is a stripped down version of user_settings.h containing only preprocessor
  27. * directives. This makes the header safe to include in assembly (.S) files.
  28. */
  29. #include "user_settings_asm.h"
  30. #else
  31. /*
  32. * Note: if user_settings.h contains any C code (e.g. a typedef or function
  33. * prototype), including it here in an assembly (.S) file will cause an
  34. * assembler failure. See user_settings_asm.h above.
  35. */
  36. #include "user_settings.h"
  37. #endif /* WOLFSSL_USER_SETTINGS_ASM */
  38. #endif /* WOLFSSL_USER_SETTINGS */
  39. #ifndef HAVE_INTEL_AVX1
  40. #define HAVE_INTEL_AVX1
  41. #endif /* HAVE_INTEL_AVX1 */
  42. #ifndef NO_AVX2_SUPPORT
  43. #define HAVE_INTEL_AVX2
  44. #endif /* NO_AVX2_SUPPORT */
  45. #ifdef WOLFSSL_X86_64_BUILD
  46. #ifndef __APPLE__
  47. .data
  48. #else
  49. .section __DATA,__data
  50. #endif /* __APPLE__ */
  51. #ifndef __APPLE__
  52. .align 16
  53. #else
  54. .p2align 4
  55. #endif /* __APPLE__ */
  56. L_aes_gcm_one:
  57. .quad 0x0, 0x1
  58. #ifndef __APPLE__
  59. .data
  60. #else
  61. .section __DATA,__data
  62. #endif /* __APPLE__ */
  63. #ifndef __APPLE__
  64. .align 16
  65. #else
  66. .p2align 4
  67. #endif /* __APPLE__ */
  68. L_aes_gcm_two:
  69. .quad 0x0, 0x2
  70. #ifndef __APPLE__
  71. .data
  72. #else
  73. .section __DATA,__data
  74. #endif /* __APPLE__ */
  75. #ifndef __APPLE__
  76. .align 16
  77. #else
  78. .p2align 4
  79. #endif /* __APPLE__ */
  80. L_aes_gcm_three:
  81. .quad 0x0, 0x3
  82. #ifndef __APPLE__
  83. .data
  84. #else
  85. .section __DATA,__data
  86. #endif /* __APPLE__ */
  87. #ifndef __APPLE__
  88. .align 16
  89. #else
  90. .p2align 4
  91. #endif /* __APPLE__ */
  92. L_aes_gcm_four:
  93. .quad 0x0, 0x4
  94. #ifndef __APPLE__
  95. .data
  96. #else
  97. .section __DATA,__data
  98. #endif /* __APPLE__ */
  99. #ifndef __APPLE__
  100. .align 16
  101. #else
  102. .p2align 4
  103. #endif /* __APPLE__ */
  104. L_aes_gcm_five:
  105. .quad 0x0, 0x5
  106. #ifndef __APPLE__
  107. .data
  108. #else
  109. .section __DATA,__data
  110. #endif /* __APPLE__ */
  111. #ifndef __APPLE__
  112. .align 16
  113. #else
  114. .p2align 4
  115. #endif /* __APPLE__ */
  116. L_aes_gcm_six:
  117. .quad 0x0, 0x6
  118. #ifndef __APPLE__
  119. .data
  120. #else
  121. .section __DATA,__data
  122. #endif /* __APPLE__ */
  123. #ifndef __APPLE__
  124. .align 16
  125. #else
  126. .p2align 4
  127. #endif /* __APPLE__ */
  128. L_aes_gcm_seven:
  129. .quad 0x0, 0x7
  130. #ifndef __APPLE__
  131. .data
  132. #else
  133. .section __DATA,__data
  134. #endif /* __APPLE__ */
  135. #ifndef __APPLE__
  136. .align 16
  137. #else
  138. .p2align 4
  139. #endif /* __APPLE__ */
  140. L_aes_gcm_eight:
  141. .quad 0x0, 0x8
  142. #ifndef __APPLE__
  143. .data
  144. #else
  145. .section __DATA,__data
  146. #endif /* __APPLE__ */
  147. #ifndef __APPLE__
  148. .align 16
  149. #else
  150. .p2align 4
  151. #endif /* __APPLE__ */
  152. L_aes_gcm_bswap_epi64:
  153. .quad 0x1020304050607, 0x8090a0b0c0d0e0f
  154. #ifndef __APPLE__
  155. .data
  156. #else
  157. .section __DATA,__data
  158. #endif /* __APPLE__ */
  159. #ifndef __APPLE__
  160. .align 16
  161. #else
  162. .p2align 4
  163. #endif /* __APPLE__ */
  164. L_aes_gcm_bswap_mask:
  165. .quad 0x8090a0b0c0d0e0f, 0x1020304050607
  166. #ifndef __APPLE__
  167. .data
  168. #else
  169. .section __DATA,__data
  170. #endif /* __APPLE__ */
  171. #ifndef __APPLE__
  172. .align 16
  173. #else
  174. .p2align 4
  175. #endif /* __APPLE__ */
  176. L_aes_gcm_mod2_128:
  177. .quad 0x1, 0xc200000000000000
  178. #ifndef __APPLE__
  179. .text
  180. .globl AES_GCM_encrypt
  181. .type AES_GCM_encrypt,@function
  182. .align 16
  183. AES_GCM_encrypt:
  184. #else
  185. .section __TEXT,__text
  186. .globl _AES_GCM_encrypt
  187. .p2align 4
  188. _AES_GCM_encrypt:
  189. #endif /* __APPLE__ */
  190. pushq %r13
  191. pushq %r12
  192. pushq %rbx
  193. pushq %r14
  194. pushq %r15
  195. movq %rdx, %r12
  196. movq %rcx, %rax
  197. movl 48(%rsp), %r11d
  198. movl 56(%rsp), %ebx
  199. movl 64(%rsp), %r14d
  200. movq 72(%rsp), %r15
  201. movl 80(%rsp), %r10d
  202. subq $0xa0, %rsp
  203. pxor %xmm4, %xmm4
  204. pxor %xmm6, %xmm6
  205. cmpl $12, %ebx
  206. movl %ebx, %edx
  207. jne L_AES_GCM_encrypt_iv_not_12
  208. # # Calculate values when IV is 12 bytes
  209. # Set counter based on IV
  210. movl $0x1000000, %ecx
  211. pinsrq $0x00, (%rax), %xmm4
  212. pinsrd $2, 8(%rax), %xmm4
  213. pinsrd $3, %ecx, %xmm4
  214. # H = Encrypt X(=0) and T = Encrypt counter
  215. movdqa %xmm4, %xmm1
  216. movdqa (%r15), %xmm5
  217. pxor %xmm5, %xmm1
  218. movdqa 16(%r15), %xmm7
  219. aesenc %xmm7, %xmm5
  220. aesenc %xmm7, %xmm1
  221. movdqa 32(%r15), %xmm7
  222. aesenc %xmm7, %xmm5
  223. aesenc %xmm7, %xmm1
  224. movdqa 48(%r15), %xmm7
  225. aesenc %xmm7, %xmm5
  226. aesenc %xmm7, %xmm1
  227. movdqa 64(%r15), %xmm7
  228. aesenc %xmm7, %xmm5
  229. aesenc %xmm7, %xmm1
  230. movdqa 80(%r15), %xmm7
  231. aesenc %xmm7, %xmm5
  232. aesenc %xmm7, %xmm1
  233. movdqa 96(%r15), %xmm7
  234. aesenc %xmm7, %xmm5
  235. aesenc %xmm7, %xmm1
  236. movdqa 112(%r15), %xmm7
  237. aesenc %xmm7, %xmm5
  238. aesenc %xmm7, %xmm1
  239. movdqa 128(%r15), %xmm7
  240. aesenc %xmm7, %xmm5
  241. aesenc %xmm7, %xmm1
  242. movdqa 144(%r15), %xmm7
  243. aesenc %xmm7, %xmm5
  244. aesenc %xmm7, %xmm1
  245. cmpl $11, %r10d
  246. movdqa 160(%r15), %xmm7
  247. jl L_AES_GCM_encrypt_calc_iv_12_last
  248. aesenc %xmm7, %xmm5
  249. aesenc %xmm7, %xmm1
  250. movdqa 176(%r15), %xmm7
  251. aesenc %xmm7, %xmm5
  252. aesenc %xmm7, %xmm1
  253. cmpl $13, %r10d
  254. movdqa 192(%r15), %xmm7
  255. jl L_AES_GCM_encrypt_calc_iv_12_last
  256. aesenc %xmm7, %xmm5
  257. aesenc %xmm7, %xmm1
  258. movdqa 208(%r15), %xmm7
  259. aesenc %xmm7, %xmm5
  260. aesenc %xmm7, %xmm1
  261. movdqa 224(%r15), %xmm7
  262. L_AES_GCM_encrypt_calc_iv_12_last:
  263. aesenclast %xmm7, %xmm5
  264. aesenclast %xmm7, %xmm1
  265. pshufb L_aes_gcm_bswap_mask(%rip), %xmm5
  266. movdqa %xmm1, 144(%rsp)
  267. jmp L_AES_GCM_encrypt_iv_done
  268. L_AES_GCM_encrypt_iv_not_12:
  269. # Calculate values when IV is not 12 bytes
  270. # H = Encrypt X(=0)
  271. movdqa (%r15), %xmm5
  272. aesenc 16(%r15), %xmm5
  273. aesenc 32(%r15), %xmm5
  274. aesenc 48(%r15), %xmm5
  275. aesenc 64(%r15), %xmm5
  276. aesenc 80(%r15), %xmm5
  277. aesenc 96(%r15), %xmm5
  278. aesenc 112(%r15), %xmm5
  279. aesenc 128(%r15), %xmm5
  280. aesenc 144(%r15), %xmm5
  281. cmpl $11, %r10d
  282. movdqa 160(%r15), %xmm9
  283. jl L_AES_GCM_encrypt_calc_iv_1_aesenc_avx_last
  284. aesenc %xmm9, %xmm5
  285. aesenc 176(%r15), %xmm5
  286. cmpl $13, %r10d
  287. movdqa 192(%r15), %xmm9
  288. jl L_AES_GCM_encrypt_calc_iv_1_aesenc_avx_last
  289. aesenc %xmm9, %xmm5
  290. aesenc 208(%r15), %xmm5
  291. movdqa 224(%r15), %xmm9
  292. L_AES_GCM_encrypt_calc_iv_1_aesenc_avx_last:
  293. aesenclast %xmm9, %xmm5
  294. pshufb L_aes_gcm_bswap_mask(%rip), %xmm5
  295. # Calc counter
  296. # Initialization vector
  297. cmpl $0x00, %edx
  298. movq $0x00, %rcx
  299. je L_AES_GCM_encrypt_calc_iv_done
  300. cmpl $16, %edx
  301. jl L_AES_GCM_encrypt_calc_iv_lt16
  302. andl $0xfffffff0, %edx
  303. L_AES_GCM_encrypt_calc_iv_16_loop:
  304. movdqu (%rax,%rcx,1), %xmm8
  305. pshufb L_aes_gcm_bswap_mask(%rip), %xmm8
  306. pxor %xmm8, %xmm4
  307. pshufd $0x4e, %xmm4, %xmm1
  308. pshufd $0x4e, %xmm5, %xmm2
  309. movdqa %xmm5, %xmm3
  310. movdqa %xmm5, %xmm0
  311. pclmulqdq $0x11, %xmm4, %xmm3
  312. pclmulqdq $0x00, %xmm4, %xmm0
  313. pxor %xmm4, %xmm1
  314. pxor %xmm5, %xmm2
  315. pclmulqdq $0x00, %xmm2, %xmm1
  316. pxor %xmm0, %xmm1
  317. pxor %xmm3, %xmm1
  318. movdqa %xmm1, %xmm2
  319. movdqa %xmm0, %xmm7
  320. movdqa %xmm3, %xmm4
  321. pslldq $8, %xmm2
  322. psrldq $8, %xmm1
  323. pxor %xmm2, %xmm7
  324. pxor %xmm1, %xmm4
  325. movdqa %xmm7, %xmm0
  326. movdqa %xmm4, %xmm1
  327. psrld $31, %xmm0
  328. psrld $31, %xmm1
  329. pslld $0x01, %xmm7
  330. pslld $0x01, %xmm4
  331. movdqa %xmm0, %xmm2
  332. pslldq $4, %xmm0
  333. psrldq $12, %xmm2
  334. pslldq $4, %xmm1
  335. por %xmm2, %xmm4
  336. por %xmm0, %xmm7
  337. por %xmm1, %xmm4
  338. movdqa %xmm7, %xmm0
  339. movdqa %xmm7, %xmm1
  340. movdqa %xmm7, %xmm2
  341. pslld $31, %xmm0
  342. pslld $30, %xmm1
  343. pslld $25, %xmm2
  344. pxor %xmm1, %xmm0
  345. pxor %xmm2, %xmm0
  346. movdqa %xmm0, %xmm1
  347. psrldq $4, %xmm1
  348. pslldq $12, %xmm0
  349. pxor %xmm0, %xmm7
  350. movdqa %xmm7, %xmm2
  351. movdqa %xmm7, %xmm3
  352. movdqa %xmm7, %xmm0
  353. psrld $0x01, %xmm2
  354. psrld $2, %xmm3
  355. psrld $7, %xmm0
  356. pxor %xmm3, %xmm2
  357. pxor %xmm0, %xmm2
  358. pxor %xmm1, %xmm2
  359. pxor %xmm7, %xmm2
  360. pxor %xmm2, %xmm4
  361. addl $16, %ecx
  362. cmpl %edx, %ecx
  363. jl L_AES_GCM_encrypt_calc_iv_16_loop
  364. movl %ebx, %edx
  365. cmpl %edx, %ecx
  366. je L_AES_GCM_encrypt_calc_iv_done
  367. L_AES_GCM_encrypt_calc_iv_lt16:
  368. subq $16, %rsp
  369. pxor %xmm8, %xmm8
  370. xorl %ebx, %ebx
  371. movdqa %xmm8, (%rsp)
  372. L_AES_GCM_encrypt_calc_iv_loop:
  373. movzbl (%rax,%rcx,1), %r13d
  374. movb %r13b, (%rsp,%rbx,1)
  375. incl %ecx
  376. incl %ebx
  377. cmpl %edx, %ecx
  378. jl L_AES_GCM_encrypt_calc_iv_loop
  379. movdqa (%rsp), %xmm8
  380. addq $16, %rsp
  381. pshufb L_aes_gcm_bswap_mask(%rip), %xmm8
  382. pxor %xmm8, %xmm4
  383. pshufd $0x4e, %xmm4, %xmm1
  384. pshufd $0x4e, %xmm5, %xmm2
  385. movdqa %xmm5, %xmm3
  386. movdqa %xmm5, %xmm0
  387. pclmulqdq $0x11, %xmm4, %xmm3
  388. pclmulqdq $0x00, %xmm4, %xmm0
  389. pxor %xmm4, %xmm1
  390. pxor %xmm5, %xmm2
  391. pclmulqdq $0x00, %xmm2, %xmm1
  392. pxor %xmm0, %xmm1
  393. pxor %xmm3, %xmm1
  394. movdqa %xmm1, %xmm2
  395. movdqa %xmm0, %xmm7
  396. movdqa %xmm3, %xmm4
  397. pslldq $8, %xmm2
  398. psrldq $8, %xmm1
  399. pxor %xmm2, %xmm7
  400. pxor %xmm1, %xmm4
  401. movdqa %xmm7, %xmm0
  402. movdqa %xmm4, %xmm1
  403. psrld $31, %xmm0
  404. psrld $31, %xmm1
  405. pslld $0x01, %xmm7
  406. pslld $0x01, %xmm4
  407. movdqa %xmm0, %xmm2
  408. pslldq $4, %xmm0
  409. psrldq $12, %xmm2
  410. pslldq $4, %xmm1
  411. por %xmm2, %xmm4
  412. por %xmm0, %xmm7
  413. por %xmm1, %xmm4
  414. movdqa %xmm7, %xmm0
  415. movdqa %xmm7, %xmm1
  416. movdqa %xmm7, %xmm2
  417. pslld $31, %xmm0
  418. pslld $30, %xmm1
  419. pslld $25, %xmm2
  420. pxor %xmm1, %xmm0
  421. pxor %xmm2, %xmm0
  422. movdqa %xmm0, %xmm1
  423. psrldq $4, %xmm1
  424. pslldq $12, %xmm0
  425. pxor %xmm0, %xmm7
  426. movdqa %xmm7, %xmm2
  427. movdqa %xmm7, %xmm3
  428. movdqa %xmm7, %xmm0
  429. psrld $0x01, %xmm2
  430. psrld $2, %xmm3
  431. psrld $7, %xmm0
  432. pxor %xmm3, %xmm2
  433. pxor %xmm0, %xmm2
  434. pxor %xmm1, %xmm2
  435. pxor %xmm7, %xmm2
  436. pxor %xmm2, %xmm4
  437. L_AES_GCM_encrypt_calc_iv_done:
  438. # T = Encrypt counter
  439. pxor %xmm0, %xmm0
  440. shll $3, %edx
  441. pinsrq $0x00, %rdx, %xmm0
  442. pxor %xmm0, %xmm4
  443. pshufd $0x4e, %xmm4, %xmm1
  444. pshufd $0x4e, %xmm5, %xmm2
  445. movdqa %xmm5, %xmm3
  446. movdqa %xmm5, %xmm0
  447. pclmulqdq $0x11, %xmm4, %xmm3
  448. pclmulqdq $0x00, %xmm4, %xmm0
  449. pxor %xmm4, %xmm1
  450. pxor %xmm5, %xmm2
  451. pclmulqdq $0x00, %xmm2, %xmm1
  452. pxor %xmm0, %xmm1
  453. pxor %xmm3, %xmm1
  454. movdqa %xmm1, %xmm2
  455. movdqa %xmm0, %xmm7
  456. movdqa %xmm3, %xmm4
  457. pslldq $8, %xmm2
  458. psrldq $8, %xmm1
  459. pxor %xmm2, %xmm7
  460. pxor %xmm1, %xmm4
  461. movdqa %xmm7, %xmm0
  462. movdqa %xmm4, %xmm1
  463. psrld $31, %xmm0
  464. psrld $31, %xmm1
  465. pslld $0x01, %xmm7
  466. pslld $0x01, %xmm4
  467. movdqa %xmm0, %xmm2
  468. pslldq $4, %xmm0
  469. psrldq $12, %xmm2
  470. pslldq $4, %xmm1
  471. por %xmm2, %xmm4
  472. por %xmm0, %xmm7
  473. por %xmm1, %xmm4
  474. movdqa %xmm7, %xmm0
  475. movdqa %xmm7, %xmm1
  476. movdqa %xmm7, %xmm2
  477. pslld $31, %xmm0
  478. pslld $30, %xmm1
  479. pslld $25, %xmm2
  480. pxor %xmm1, %xmm0
  481. pxor %xmm2, %xmm0
  482. movdqa %xmm0, %xmm1
  483. psrldq $4, %xmm1
  484. pslldq $12, %xmm0
  485. pxor %xmm0, %xmm7
  486. movdqa %xmm7, %xmm2
  487. movdqa %xmm7, %xmm3
  488. movdqa %xmm7, %xmm0
  489. psrld $0x01, %xmm2
  490. psrld $2, %xmm3
  491. psrld $7, %xmm0
  492. pxor %xmm3, %xmm2
  493. pxor %xmm0, %xmm2
  494. pxor %xmm1, %xmm2
  495. pxor %xmm7, %xmm2
  496. pxor %xmm2, %xmm4
  497. pshufb L_aes_gcm_bswap_mask(%rip), %xmm4
  498. # Encrypt counter
  499. movdqa (%r15), %xmm8
  500. pxor %xmm4, %xmm8
  501. aesenc 16(%r15), %xmm8
  502. aesenc 32(%r15), %xmm8
  503. aesenc 48(%r15), %xmm8
  504. aesenc 64(%r15), %xmm8
  505. aesenc 80(%r15), %xmm8
  506. aesenc 96(%r15), %xmm8
  507. aesenc 112(%r15), %xmm8
  508. aesenc 128(%r15), %xmm8
  509. aesenc 144(%r15), %xmm8
  510. cmpl $11, %r10d
  511. movdqa 160(%r15), %xmm9
  512. jl L_AES_GCM_encrypt_calc_iv_2_aesenc_avx_last
  513. aesenc %xmm9, %xmm8
  514. aesenc 176(%r15), %xmm8
  515. cmpl $13, %r10d
  516. movdqa 192(%r15), %xmm9
  517. jl L_AES_GCM_encrypt_calc_iv_2_aesenc_avx_last
  518. aesenc %xmm9, %xmm8
  519. aesenc 208(%r15), %xmm8
  520. movdqa 224(%r15), %xmm9
  521. L_AES_GCM_encrypt_calc_iv_2_aesenc_avx_last:
  522. aesenclast %xmm9, %xmm8
  523. movdqa %xmm8, 144(%rsp)
  524. L_AES_GCM_encrypt_iv_done:
  525. # Additional authentication data
  526. movl %r11d, %edx
  527. cmpl $0x00, %edx
  528. je L_AES_GCM_encrypt_calc_aad_done
  529. xorl %ecx, %ecx
  530. cmpl $16, %edx
  531. jl L_AES_GCM_encrypt_calc_aad_lt16
  532. andl $0xfffffff0, %edx
  533. L_AES_GCM_encrypt_calc_aad_16_loop:
  534. movdqu (%r12,%rcx,1), %xmm8
  535. pshufb L_aes_gcm_bswap_mask(%rip), %xmm8
  536. pxor %xmm8, %xmm6
  537. pshufd $0x4e, %xmm6, %xmm1
  538. pshufd $0x4e, %xmm5, %xmm2
  539. movdqa %xmm5, %xmm3
  540. movdqa %xmm5, %xmm0
  541. pclmulqdq $0x11, %xmm6, %xmm3
  542. pclmulqdq $0x00, %xmm6, %xmm0
  543. pxor %xmm6, %xmm1
  544. pxor %xmm5, %xmm2
  545. pclmulqdq $0x00, %xmm2, %xmm1
  546. pxor %xmm0, %xmm1
  547. pxor %xmm3, %xmm1
  548. movdqa %xmm1, %xmm2
  549. movdqa %xmm0, %xmm7
  550. movdqa %xmm3, %xmm6
  551. pslldq $8, %xmm2
  552. psrldq $8, %xmm1
  553. pxor %xmm2, %xmm7
  554. pxor %xmm1, %xmm6
  555. movdqa %xmm7, %xmm0
  556. movdqa %xmm6, %xmm1
  557. psrld $31, %xmm0
  558. psrld $31, %xmm1
  559. pslld $0x01, %xmm7
  560. pslld $0x01, %xmm6
  561. movdqa %xmm0, %xmm2
  562. pslldq $4, %xmm0
  563. psrldq $12, %xmm2
  564. pslldq $4, %xmm1
  565. por %xmm2, %xmm6
  566. por %xmm0, %xmm7
  567. por %xmm1, %xmm6
  568. movdqa %xmm7, %xmm0
  569. movdqa %xmm7, %xmm1
  570. movdqa %xmm7, %xmm2
  571. pslld $31, %xmm0
  572. pslld $30, %xmm1
  573. pslld $25, %xmm2
  574. pxor %xmm1, %xmm0
  575. pxor %xmm2, %xmm0
  576. movdqa %xmm0, %xmm1
  577. psrldq $4, %xmm1
  578. pslldq $12, %xmm0
  579. pxor %xmm0, %xmm7
  580. movdqa %xmm7, %xmm2
  581. movdqa %xmm7, %xmm3
  582. movdqa %xmm7, %xmm0
  583. psrld $0x01, %xmm2
  584. psrld $2, %xmm3
  585. psrld $7, %xmm0
  586. pxor %xmm3, %xmm2
  587. pxor %xmm0, %xmm2
  588. pxor %xmm1, %xmm2
  589. pxor %xmm7, %xmm2
  590. pxor %xmm2, %xmm6
  591. addl $16, %ecx
  592. cmpl %edx, %ecx
  593. jl L_AES_GCM_encrypt_calc_aad_16_loop
  594. movl %r11d, %edx
  595. cmpl %edx, %ecx
  596. je L_AES_GCM_encrypt_calc_aad_done
  597. L_AES_GCM_encrypt_calc_aad_lt16:
  598. subq $16, %rsp
  599. pxor %xmm8, %xmm8
  600. xorl %ebx, %ebx
  601. movdqa %xmm8, (%rsp)
  602. L_AES_GCM_encrypt_calc_aad_loop:
  603. movzbl (%r12,%rcx,1), %r13d
  604. movb %r13b, (%rsp,%rbx,1)
  605. incl %ecx
  606. incl %ebx
  607. cmpl %edx, %ecx
  608. jl L_AES_GCM_encrypt_calc_aad_loop
  609. movdqa (%rsp), %xmm8
  610. addq $16, %rsp
  611. pshufb L_aes_gcm_bswap_mask(%rip), %xmm8
  612. pxor %xmm8, %xmm6
  613. pshufd $0x4e, %xmm6, %xmm1
  614. pshufd $0x4e, %xmm5, %xmm2
  615. movdqa %xmm5, %xmm3
  616. movdqa %xmm5, %xmm0
  617. pclmulqdq $0x11, %xmm6, %xmm3
  618. pclmulqdq $0x00, %xmm6, %xmm0
  619. pxor %xmm6, %xmm1
  620. pxor %xmm5, %xmm2
  621. pclmulqdq $0x00, %xmm2, %xmm1
  622. pxor %xmm0, %xmm1
  623. pxor %xmm3, %xmm1
  624. movdqa %xmm1, %xmm2
  625. movdqa %xmm0, %xmm7
  626. movdqa %xmm3, %xmm6
  627. pslldq $8, %xmm2
  628. psrldq $8, %xmm1
  629. pxor %xmm2, %xmm7
  630. pxor %xmm1, %xmm6
  631. movdqa %xmm7, %xmm0
  632. movdqa %xmm6, %xmm1
  633. psrld $31, %xmm0
  634. psrld $31, %xmm1
  635. pslld $0x01, %xmm7
  636. pslld $0x01, %xmm6
  637. movdqa %xmm0, %xmm2
  638. pslldq $4, %xmm0
  639. psrldq $12, %xmm2
  640. pslldq $4, %xmm1
  641. por %xmm2, %xmm6
  642. por %xmm0, %xmm7
  643. por %xmm1, %xmm6
  644. movdqa %xmm7, %xmm0
  645. movdqa %xmm7, %xmm1
  646. movdqa %xmm7, %xmm2
  647. pslld $31, %xmm0
  648. pslld $30, %xmm1
  649. pslld $25, %xmm2
  650. pxor %xmm1, %xmm0
  651. pxor %xmm2, %xmm0
  652. movdqa %xmm0, %xmm1
  653. psrldq $4, %xmm1
  654. pslldq $12, %xmm0
  655. pxor %xmm0, %xmm7
  656. movdqa %xmm7, %xmm2
  657. movdqa %xmm7, %xmm3
  658. movdqa %xmm7, %xmm0
  659. psrld $0x01, %xmm2
  660. psrld $2, %xmm3
  661. psrld $7, %xmm0
  662. pxor %xmm3, %xmm2
  663. pxor %xmm0, %xmm2
  664. pxor %xmm1, %xmm2
  665. pxor %xmm7, %xmm2
  666. pxor %xmm2, %xmm6
  667. L_AES_GCM_encrypt_calc_aad_done:
  668. # Calculate counter and H
  669. pshufb L_aes_gcm_bswap_epi64(%rip), %xmm4
  670. movdqa %xmm5, %xmm9
  671. paddd L_aes_gcm_one(%rip), %xmm4
  672. movdqa %xmm5, %xmm8
  673. movdqa %xmm4, 128(%rsp)
  674. psrlq $63, %xmm9
  675. psllq $0x01, %xmm8
  676. pslldq $8, %xmm9
  677. por %xmm9, %xmm8
  678. pshufd $0xff, %xmm5, %xmm5
  679. psrad $31, %xmm5
  680. pand L_aes_gcm_mod2_128(%rip), %xmm5
  681. pxor %xmm8, %xmm5
  682. xorq %rbx, %rbx
  683. cmpl $0x80, %r9d
  684. movl %r9d, %r13d
  685. jl L_AES_GCM_encrypt_done_128
  686. andl $0xffffff80, %r13d
  687. movdqa %xmm6, %xmm2
  688. # H ^ 1
  689. movdqa %xmm5, (%rsp)
  690. # H ^ 2
  691. pshufd $0x4e, %xmm5, %xmm9
  692. pshufd $0x4e, %xmm5, %xmm10
  693. movdqa %xmm5, %xmm11
  694. movdqa %xmm5, %xmm8
  695. pclmulqdq $0x11, %xmm5, %xmm11
  696. pclmulqdq $0x00, %xmm5, %xmm8
  697. pxor %xmm5, %xmm9
  698. pxor %xmm5, %xmm10
  699. pclmulqdq $0x00, %xmm10, %xmm9
  700. pxor %xmm8, %xmm9
  701. pxor %xmm11, %xmm9
  702. movdqa %xmm9, %xmm10
  703. movdqa %xmm11, %xmm0
  704. pslldq $8, %xmm10
  705. psrldq $8, %xmm9
  706. pxor %xmm10, %xmm8
  707. pxor %xmm9, %xmm0
  708. movdqa %xmm8, %xmm12
  709. movdqa %xmm8, %xmm13
  710. movdqa %xmm8, %xmm14
  711. pslld $31, %xmm12
  712. pslld $30, %xmm13
  713. pslld $25, %xmm14
  714. pxor %xmm13, %xmm12
  715. pxor %xmm14, %xmm12
  716. movdqa %xmm12, %xmm13
  717. psrldq $4, %xmm13
  718. pslldq $12, %xmm12
  719. pxor %xmm12, %xmm8
  720. movdqa %xmm8, %xmm14
  721. movdqa %xmm8, %xmm10
  722. movdqa %xmm8, %xmm9
  723. psrld $0x01, %xmm14
  724. psrld $2, %xmm10
  725. psrld $7, %xmm9
  726. pxor %xmm10, %xmm14
  727. pxor %xmm9, %xmm14
  728. pxor %xmm13, %xmm14
  729. pxor %xmm8, %xmm14
  730. pxor %xmm14, %xmm0
  731. movdqa %xmm0, 16(%rsp)
  732. # H ^ 3
  733. pshufd $0x4e, %xmm5, %xmm9
  734. pshufd $0x4e, %xmm0, %xmm10
  735. movdqa %xmm0, %xmm11
  736. movdqa %xmm0, %xmm8
  737. pclmulqdq $0x11, %xmm5, %xmm11
  738. pclmulqdq $0x00, %xmm5, %xmm8
  739. pxor %xmm5, %xmm9
  740. pxor %xmm0, %xmm10
  741. pclmulqdq $0x00, %xmm10, %xmm9
  742. pxor %xmm8, %xmm9
  743. pxor %xmm11, %xmm9
  744. movdqa %xmm9, %xmm10
  745. movdqa %xmm11, %xmm1
  746. pslldq $8, %xmm10
  747. psrldq $8, %xmm9
  748. pxor %xmm10, %xmm8
  749. pxor %xmm9, %xmm1
  750. movdqa %xmm8, %xmm12
  751. movdqa %xmm8, %xmm13
  752. movdqa %xmm8, %xmm14
  753. pslld $31, %xmm12
  754. pslld $30, %xmm13
  755. pslld $25, %xmm14
  756. pxor %xmm13, %xmm12
  757. pxor %xmm14, %xmm12
  758. movdqa %xmm12, %xmm13
  759. psrldq $4, %xmm13
  760. pslldq $12, %xmm12
  761. pxor %xmm12, %xmm8
  762. movdqa %xmm8, %xmm14
  763. movdqa %xmm8, %xmm10
  764. movdqa %xmm8, %xmm9
  765. psrld $0x01, %xmm14
  766. psrld $2, %xmm10
  767. psrld $7, %xmm9
  768. pxor %xmm10, %xmm14
  769. pxor %xmm9, %xmm14
  770. pxor %xmm13, %xmm14
  771. pxor %xmm8, %xmm14
  772. pxor %xmm14, %xmm1
  773. movdqa %xmm1, 32(%rsp)
  774. # H ^ 4
  775. pshufd $0x4e, %xmm0, %xmm9
  776. pshufd $0x4e, %xmm0, %xmm10
  777. movdqa %xmm0, %xmm11
  778. movdqa %xmm0, %xmm8
  779. pclmulqdq $0x11, %xmm0, %xmm11
  780. pclmulqdq $0x00, %xmm0, %xmm8
  781. pxor %xmm0, %xmm9
  782. pxor %xmm0, %xmm10
  783. pclmulqdq $0x00, %xmm10, %xmm9
  784. pxor %xmm8, %xmm9
  785. pxor %xmm11, %xmm9
  786. movdqa %xmm9, %xmm10
  787. movdqa %xmm11, %xmm3
  788. pslldq $8, %xmm10
  789. psrldq $8, %xmm9
  790. pxor %xmm10, %xmm8
  791. pxor %xmm9, %xmm3
  792. movdqa %xmm8, %xmm12
  793. movdqa %xmm8, %xmm13
  794. movdqa %xmm8, %xmm14
  795. pslld $31, %xmm12
  796. pslld $30, %xmm13
  797. pslld $25, %xmm14
  798. pxor %xmm13, %xmm12
  799. pxor %xmm14, %xmm12
  800. movdqa %xmm12, %xmm13
  801. psrldq $4, %xmm13
  802. pslldq $12, %xmm12
  803. pxor %xmm12, %xmm8
  804. movdqa %xmm8, %xmm14
  805. movdqa %xmm8, %xmm10
  806. movdqa %xmm8, %xmm9
  807. psrld $0x01, %xmm14
  808. psrld $2, %xmm10
  809. psrld $7, %xmm9
  810. pxor %xmm10, %xmm14
  811. pxor %xmm9, %xmm14
  812. pxor %xmm13, %xmm14
  813. pxor %xmm8, %xmm14
  814. pxor %xmm14, %xmm3
  815. movdqa %xmm3, 48(%rsp)
  816. # H ^ 5
  817. pshufd $0x4e, %xmm0, %xmm9
  818. pshufd $0x4e, %xmm1, %xmm10
  819. movdqa %xmm1, %xmm11
  820. movdqa %xmm1, %xmm8
  821. pclmulqdq $0x11, %xmm0, %xmm11
  822. pclmulqdq $0x00, %xmm0, %xmm8
  823. pxor %xmm0, %xmm9
  824. pxor %xmm1, %xmm10
  825. pclmulqdq $0x00, %xmm10, %xmm9
  826. pxor %xmm8, %xmm9
  827. pxor %xmm11, %xmm9
  828. movdqa %xmm9, %xmm10
  829. movdqa %xmm11, %xmm7
  830. pslldq $8, %xmm10
  831. psrldq $8, %xmm9
  832. pxor %xmm10, %xmm8
  833. pxor %xmm9, %xmm7
  834. movdqa %xmm8, %xmm12
  835. movdqa %xmm8, %xmm13
  836. movdqa %xmm8, %xmm14
  837. pslld $31, %xmm12
  838. pslld $30, %xmm13
  839. pslld $25, %xmm14
  840. pxor %xmm13, %xmm12
  841. pxor %xmm14, %xmm12
  842. movdqa %xmm12, %xmm13
  843. psrldq $4, %xmm13
  844. pslldq $12, %xmm12
  845. pxor %xmm12, %xmm8
  846. movdqa %xmm8, %xmm14
  847. movdqa %xmm8, %xmm10
  848. movdqa %xmm8, %xmm9
  849. psrld $0x01, %xmm14
  850. psrld $2, %xmm10
  851. psrld $7, %xmm9
  852. pxor %xmm10, %xmm14
  853. pxor %xmm9, %xmm14
  854. pxor %xmm13, %xmm14
  855. pxor %xmm8, %xmm14
  856. pxor %xmm14, %xmm7
  857. movdqa %xmm7, 64(%rsp)
  858. # H ^ 6
  859. pshufd $0x4e, %xmm1, %xmm9
  860. pshufd $0x4e, %xmm1, %xmm10
  861. movdqa %xmm1, %xmm11
  862. movdqa %xmm1, %xmm8
  863. pclmulqdq $0x11, %xmm1, %xmm11
  864. pclmulqdq $0x00, %xmm1, %xmm8
  865. pxor %xmm1, %xmm9
  866. pxor %xmm1, %xmm10
  867. pclmulqdq $0x00, %xmm10, %xmm9
  868. pxor %xmm8, %xmm9
  869. pxor %xmm11, %xmm9
  870. movdqa %xmm9, %xmm10
  871. movdqa %xmm11, %xmm7
  872. pslldq $8, %xmm10
  873. psrldq $8, %xmm9
  874. pxor %xmm10, %xmm8
  875. pxor %xmm9, %xmm7
  876. movdqa %xmm8, %xmm12
  877. movdqa %xmm8, %xmm13
  878. movdqa %xmm8, %xmm14
  879. pslld $31, %xmm12
  880. pslld $30, %xmm13
  881. pslld $25, %xmm14
  882. pxor %xmm13, %xmm12
  883. pxor %xmm14, %xmm12
  884. movdqa %xmm12, %xmm13
  885. psrldq $4, %xmm13
  886. pslldq $12, %xmm12
  887. pxor %xmm12, %xmm8
  888. movdqa %xmm8, %xmm14
  889. movdqa %xmm8, %xmm10
  890. movdqa %xmm8, %xmm9
  891. psrld $0x01, %xmm14
  892. psrld $2, %xmm10
  893. psrld $7, %xmm9
  894. pxor %xmm10, %xmm14
  895. pxor %xmm9, %xmm14
  896. pxor %xmm13, %xmm14
  897. pxor %xmm8, %xmm14
  898. pxor %xmm14, %xmm7
  899. movdqa %xmm7, 80(%rsp)
  900. # H ^ 7
  901. pshufd $0x4e, %xmm1, %xmm9
  902. pshufd $0x4e, %xmm3, %xmm10
  903. movdqa %xmm3, %xmm11
  904. movdqa %xmm3, %xmm8
  905. pclmulqdq $0x11, %xmm1, %xmm11
  906. pclmulqdq $0x00, %xmm1, %xmm8
  907. pxor %xmm1, %xmm9
  908. pxor %xmm3, %xmm10
  909. pclmulqdq $0x00, %xmm10, %xmm9
  910. pxor %xmm8, %xmm9
  911. pxor %xmm11, %xmm9
  912. movdqa %xmm9, %xmm10
  913. movdqa %xmm11, %xmm7
  914. pslldq $8, %xmm10
  915. psrldq $8, %xmm9
  916. pxor %xmm10, %xmm8
  917. pxor %xmm9, %xmm7
  918. movdqa %xmm8, %xmm12
  919. movdqa %xmm8, %xmm13
  920. movdqa %xmm8, %xmm14
  921. pslld $31, %xmm12
  922. pslld $30, %xmm13
  923. pslld $25, %xmm14
  924. pxor %xmm13, %xmm12
  925. pxor %xmm14, %xmm12
  926. movdqa %xmm12, %xmm13
  927. psrldq $4, %xmm13
  928. pslldq $12, %xmm12
  929. pxor %xmm12, %xmm8
  930. movdqa %xmm8, %xmm14
  931. movdqa %xmm8, %xmm10
  932. movdqa %xmm8, %xmm9
  933. psrld $0x01, %xmm14
  934. psrld $2, %xmm10
  935. psrld $7, %xmm9
  936. pxor %xmm10, %xmm14
  937. pxor %xmm9, %xmm14
  938. pxor %xmm13, %xmm14
  939. pxor %xmm8, %xmm14
  940. pxor %xmm14, %xmm7
  941. movdqa %xmm7, 96(%rsp)
  942. # H ^ 8
  943. pshufd $0x4e, %xmm3, %xmm9
  944. pshufd $0x4e, %xmm3, %xmm10
  945. movdqa %xmm3, %xmm11
  946. movdqa %xmm3, %xmm8
  947. pclmulqdq $0x11, %xmm3, %xmm11
  948. pclmulqdq $0x00, %xmm3, %xmm8
  949. pxor %xmm3, %xmm9
  950. pxor %xmm3, %xmm10
  951. pclmulqdq $0x00, %xmm10, %xmm9
  952. pxor %xmm8, %xmm9
  953. pxor %xmm11, %xmm9
  954. movdqa %xmm9, %xmm10
  955. movdqa %xmm11, %xmm7
  956. pslldq $8, %xmm10
  957. psrldq $8, %xmm9
  958. pxor %xmm10, %xmm8
  959. pxor %xmm9, %xmm7
  960. movdqa %xmm8, %xmm12
  961. movdqa %xmm8, %xmm13
  962. movdqa %xmm8, %xmm14
  963. pslld $31, %xmm12
  964. pslld $30, %xmm13
  965. pslld $25, %xmm14
  966. pxor %xmm13, %xmm12
  967. pxor %xmm14, %xmm12
  968. movdqa %xmm12, %xmm13
  969. psrldq $4, %xmm13
  970. pslldq $12, %xmm12
  971. pxor %xmm12, %xmm8
  972. movdqa %xmm8, %xmm14
  973. movdqa %xmm8, %xmm10
  974. movdqa %xmm8, %xmm9
  975. psrld $0x01, %xmm14
  976. psrld $2, %xmm10
  977. psrld $7, %xmm9
  978. pxor %xmm10, %xmm14
  979. pxor %xmm9, %xmm14
  980. pxor %xmm13, %xmm14
  981. pxor %xmm8, %xmm14
  982. pxor %xmm14, %xmm7
  983. movdqa %xmm7, 112(%rsp)
  984. # First 128 bytes of input
  985. movdqa 128(%rsp), %xmm8
  986. movdqa L_aes_gcm_bswap_epi64(%rip), %xmm1
  987. movdqa %xmm8, %xmm0
  988. pshufb %xmm1, %xmm8
  989. movdqa %xmm0, %xmm9
  990. paddd L_aes_gcm_one(%rip), %xmm9
  991. pshufb %xmm1, %xmm9
  992. movdqa %xmm0, %xmm10
  993. paddd L_aes_gcm_two(%rip), %xmm10
  994. pshufb %xmm1, %xmm10
  995. movdqa %xmm0, %xmm11
  996. paddd L_aes_gcm_three(%rip), %xmm11
  997. pshufb %xmm1, %xmm11
  998. movdqa %xmm0, %xmm12
  999. paddd L_aes_gcm_four(%rip), %xmm12
  1000. pshufb %xmm1, %xmm12
  1001. movdqa %xmm0, %xmm13
  1002. paddd L_aes_gcm_five(%rip), %xmm13
  1003. pshufb %xmm1, %xmm13
  1004. movdqa %xmm0, %xmm14
  1005. paddd L_aes_gcm_six(%rip), %xmm14
  1006. pshufb %xmm1, %xmm14
  1007. movdqa %xmm0, %xmm15
  1008. paddd L_aes_gcm_seven(%rip), %xmm15
  1009. pshufb %xmm1, %xmm15
  1010. paddd L_aes_gcm_eight(%rip), %xmm0
  1011. movdqa (%r15), %xmm7
  1012. movdqa %xmm0, 128(%rsp)
  1013. pxor %xmm7, %xmm8
  1014. pxor %xmm7, %xmm9
  1015. pxor %xmm7, %xmm10
  1016. pxor %xmm7, %xmm11
  1017. pxor %xmm7, %xmm12
  1018. pxor %xmm7, %xmm13
  1019. pxor %xmm7, %xmm14
  1020. pxor %xmm7, %xmm15
  1021. movdqa 16(%r15), %xmm7
  1022. aesenc %xmm7, %xmm8
  1023. aesenc %xmm7, %xmm9
  1024. aesenc %xmm7, %xmm10
  1025. aesenc %xmm7, %xmm11
  1026. aesenc %xmm7, %xmm12
  1027. aesenc %xmm7, %xmm13
  1028. aesenc %xmm7, %xmm14
  1029. aesenc %xmm7, %xmm15
  1030. movdqa 32(%r15), %xmm7
  1031. aesenc %xmm7, %xmm8
  1032. aesenc %xmm7, %xmm9
  1033. aesenc %xmm7, %xmm10
  1034. aesenc %xmm7, %xmm11
  1035. aesenc %xmm7, %xmm12
  1036. aesenc %xmm7, %xmm13
  1037. aesenc %xmm7, %xmm14
  1038. aesenc %xmm7, %xmm15
  1039. movdqa 48(%r15), %xmm7
  1040. aesenc %xmm7, %xmm8
  1041. aesenc %xmm7, %xmm9
  1042. aesenc %xmm7, %xmm10
  1043. aesenc %xmm7, %xmm11
  1044. aesenc %xmm7, %xmm12
  1045. aesenc %xmm7, %xmm13
  1046. aesenc %xmm7, %xmm14
  1047. aesenc %xmm7, %xmm15
  1048. movdqa 64(%r15), %xmm7
  1049. aesenc %xmm7, %xmm8
  1050. aesenc %xmm7, %xmm9
  1051. aesenc %xmm7, %xmm10
  1052. aesenc %xmm7, %xmm11
  1053. aesenc %xmm7, %xmm12
  1054. aesenc %xmm7, %xmm13
  1055. aesenc %xmm7, %xmm14
  1056. aesenc %xmm7, %xmm15
  1057. movdqa 80(%r15), %xmm7
  1058. aesenc %xmm7, %xmm8
  1059. aesenc %xmm7, %xmm9
  1060. aesenc %xmm7, %xmm10
  1061. aesenc %xmm7, %xmm11
  1062. aesenc %xmm7, %xmm12
  1063. aesenc %xmm7, %xmm13
  1064. aesenc %xmm7, %xmm14
  1065. aesenc %xmm7, %xmm15
  1066. movdqa 96(%r15), %xmm7
  1067. aesenc %xmm7, %xmm8
  1068. aesenc %xmm7, %xmm9
  1069. aesenc %xmm7, %xmm10
  1070. aesenc %xmm7, %xmm11
  1071. aesenc %xmm7, %xmm12
  1072. aesenc %xmm7, %xmm13
  1073. aesenc %xmm7, %xmm14
  1074. aesenc %xmm7, %xmm15
  1075. movdqa 112(%r15), %xmm7
  1076. aesenc %xmm7, %xmm8
  1077. aesenc %xmm7, %xmm9
  1078. aesenc %xmm7, %xmm10
  1079. aesenc %xmm7, %xmm11
  1080. aesenc %xmm7, %xmm12
  1081. aesenc %xmm7, %xmm13
  1082. aesenc %xmm7, %xmm14
  1083. aesenc %xmm7, %xmm15
  1084. movdqa 128(%r15), %xmm7
  1085. aesenc %xmm7, %xmm8
  1086. aesenc %xmm7, %xmm9
  1087. aesenc %xmm7, %xmm10
  1088. aesenc %xmm7, %xmm11
  1089. aesenc %xmm7, %xmm12
  1090. aesenc %xmm7, %xmm13
  1091. aesenc %xmm7, %xmm14
  1092. aesenc %xmm7, %xmm15
  1093. movdqa 144(%r15), %xmm7
  1094. aesenc %xmm7, %xmm8
  1095. aesenc %xmm7, %xmm9
  1096. aesenc %xmm7, %xmm10
  1097. aesenc %xmm7, %xmm11
  1098. aesenc %xmm7, %xmm12
  1099. aesenc %xmm7, %xmm13
  1100. aesenc %xmm7, %xmm14
  1101. aesenc %xmm7, %xmm15
  1102. cmpl $11, %r10d
  1103. movdqa 160(%r15), %xmm7
  1104. jl L_AES_GCM_encrypt_enc_done
  1105. aesenc %xmm7, %xmm8
  1106. aesenc %xmm7, %xmm9
  1107. aesenc %xmm7, %xmm10
  1108. aesenc %xmm7, %xmm11
  1109. aesenc %xmm7, %xmm12
  1110. aesenc %xmm7, %xmm13
  1111. aesenc %xmm7, %xmm14
  1112. aesenc %xmm7, %xmm15
  1113. movdqa 176(%r15), %xmm7
  1114. aesenc %xmm7, %xmm8
  1115. aesenc %xmm7, %xmm9
  1116. aesenc %xmm7, %xmm10
  1117. aesenc %xmm7, %xmm11
  1118. aesenc %xmm7, %xmm12
  1119. aesenc %xmm7, %xmm13
  1120. aesenc %xmm7, %xmm14
  1121. aesenc %xmm7, %xmm15
  1122. cmpl $13, %r10d
  1123. movdqa 192(%r15), %xmm7
  1124. jl L_AES_GCM_encrypt_enc_done
  1125. aesenc %xmm7, %xmm8
  1126. aesenc %xmm7, %xmm9
  1127. aesenc %xmm7, %xmm10
  1128. aesenc %xmm7, %xmm11
  1129. aesenc %xmm7, %xmm12
  1130. aesenc %xmm7, %xmm13
  1131. aesenc %xmm7, %xmm14
  1132. aesenc %xmm7, %xmm15
  1133. movdqa 208(%r15), %xmm7
  1134. aesenc %xmm7, %xmm8
  1135. aesenc %xmm7, %xmm9
  1136. aesenc %xmm7, %xmm10
  1137. aesenc %xmm7, %xmm11
  1138. aesenc %xmm7, %xmm12
  1139. aesenc %xmm7, %xmm13
  1140. aesenc %xmm7, %xmm14
  1141. aesenc %xmm7, %xmm15
  1142. movdqa 224(%r15), %xmm7
  1143. L_AES_GCM_encrypt_enc_done:
  1144. aesenclast %xmm7, %xmm8
  1145. aesenclast %xmm7, %xmm9
  1146. movdqu (%rdi), %xmm0
  1147. movdqu 16(%rdi), %xmm1
  1148. pxor %xmm0, %xmm8
  1149. pxor %xmm1, %xmm9
  1150. movdqu %xmm8, (%rsi)
  1151. movdqu %xmm9, 16(%rsi)
  1152. aesenclast %xmm7, %xmm10
  1153. aesenclast %xmm7, %xmm11
  1154. movdqu 32(%rdi), %xmm0
  1155. movdqu 48(%rdi), %xmm1
  1156. pxor %xmm0, %xmm10
  1157. pxor %xmm1, %xmm11
  1158. movdqu %xmm10, 32(%rsi)
  1159. movdqu %xmm11, 48(%rsi)
  1160. aesenclast %xmm7, %xmm12
  1161. aesenclast %xmm7, %xmm13
  1162. movdqu 64(%rdi), %xmm0
  1163. movdqu 80(%rdi), %xmm1
  1164. pxor %xmm0, %xmm12
  1165. pxor %xmm1, %xmm13
  1166. movdqu %xmm12, 64(%rsi)
  1167. movdqu %xmm13, 80(%rsi)
  1168. aesenclast %xmm7, %xmm14
  1169. aesenclast %xmm7, %xmm15
  1170. movdqu 96(%rdi), %xmm0
  1171. movdqu 112(%rdi), %xmm1
  1172. pxor %xmm0, %xmm14
  1173. pxor %xmm1, %xmm15
  1174. movdqu %xmm14, 96(%rsi)
  1175. movdqu %xmm15, 112(%rsi)
  1176. cmpl $0x80, %r13d
  1177. movl $0x80, %ebx
  1178. jle L_AES_GCM_encrypt_end_128
  1179. # More 128 bytes of input
  1180. L_AES_GCM_encrypt_ghash_128:
  1181. leaq (%rdi,%rbx,1), %rcx
  1182. leaq (%rsi,%rbx,1), %rdx
  1183. movdqa 128(%rsp), %xmm8
  1184. movdqa L_aes_gcm_bswap_epi64(%rip), %xmm1
  1185. movdqa %xmm8, %xmm0
  1186. pshufb %xmm1, %xmm8
  1187. movdqa %xmm0, %xmm9
  1188. paddd L_aes_gcm_one(%rip), %xmm9
  1189. pshufb %xmm1, %xmm9
  1190. movdqa %xmm0, %xmm10
  1191. paddd L_aes_gcm_two(%rip), %xmm10
  1192. pshufb %xmm1, %xmm10
  1193. movdqa %xmm0, %xmm11
  1194. paddd L_aes_gcm_three(%rip), %xmm11
  1195. pshufb %xmm1, %xmm11
  1196. movdqa %xmm0, %xmm12
  1197. paddd L_aes_gcm_four(%rip), %xmm12
  1198. pshufb %xmm1, %xmm12
  1199. movdqa %xmm0, %xmm13
  1200. paddd L_aes_gcm_five(%rip), %xmm13
  1201. pshufb %xmm1, %xmm13
  1202. movdqa %xmm0, %xmm14
  1203. paddd L_aes_gcm_six(%rip), %xmm14
  1204. pshufb %xmm1, %xmm14
  1205. movdqa %xmm0, %xmm15
  1206. paddd L_aes_gcm_seven(%rip), %xmm15
  1207. pshufb %xmm1, %xmm15
  1208. paddd L_aes_gcm_eight(%rip), %xmm0
  1209. movdqa (%r15), %xmm7
  1210. movdqa %xmm0, 128(%rsp)
  1211. pxor %xmm7, %xmm8
  1212. pxor %xmm7, %xmm9
  1213. pxor %xmm7, %xmm10
  1214. pxor %xmm7, %xmm11
  1215. pxor %xmm7, %xmm12
  1216. pxor %xmm7, %xmm13
  1217. pxor %xmm7, %xmm14
  1218. pxor %xmm7, %xmm15
  1219. movdqa 112(%rsp), %xmm7
  1220. movdqu -128(%rdx), %xmm0
  1221. aesenc 16(%r15), %xmm8
  1222. pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
  1223. pxor %xmm2, %xmm0
  1224. pshufd $0x4e, %xmm7, %xmm1
  1225. pshufd $0x4e, %xmm0, %xmm5
  1226. pxor %xmm7, %xmm1
  1227. pxor %xmm0, %xmm5
  1228. movdqa %xmm0, %xmm3
  1229. pclmulqdq $0x11, %xmm7, %xmm3
  1230. aesenc 16(%r15), %xmm9
  1231. aesenc 16(%r15), %xmm10
  1232. movdqa %xmm0, %xmm2
  1233. pclmulqdq $0x00, %xmm7, %xmm2
  1234. aesenc 16(%r15), %xmm11
  1235. aesenc 16(%r15), %xmm12
  1236. pclmulqdq $0x00, %xmm5, %xmm1
  1237. aesenc 16(%r15), %xmm13
  1238. aesenc 16(%r15), %xmm14
  1239. aesenc 16(%r15), %xmm15
  1240. pxor %xmm2, %xmm1
  1241. pxor %xmm3, %xmm1
  1242. movdqa 96(%rsp), %xmm7
  1243. movdqu -112(%rdx), %xmm0
  1244. pshufd $0x4e, %xmm7, %xmm4
  1245. pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
  1246. aesenc 32(%r15), %xmm8
  1247. pxor %xmm7, %xmm4
  1248. pshufd $0x4e, %xmm0, %xmm5
  1249. pxor %xmm0, %xmm5
  1250. movdqa %xmm0, %xmm6
  1251. pclmulqdq $0x11, %xmm7, %xmm6
  1252. aesenc 32(%r15), %xmm9
  1253. aesenc 32(%r15), %xmm10
  1254. pclmulqdq $0x00, %xmm0, %xmm7
  1255. aesenc 32(%r15), %xmm11
  1256. aesenc 32(%r15), %xmm12
  1257. pclmulqdq $0x00, %xmm5, %xmm4
  1258. aesenc 32(%r15), %xmm13
  1259. aesenc 32(%r15), %xmm14
  1260. aesenc 32(%r15), %xmm15
  1261. pxor %xmm7, %xmm1
  1262. pxor %xmm7, %xmm2
  1263. pxor %xmm6, %xmm1
  1264. pxor %xmm6, %xmm3
  1265. pxor %xmm4, %xmm1
  1266. movdqa 80(%rsp), %xmm7
  1267. movdqu -96(%rdx), %xmm0
  1268. pshufd $0x4e, %xmm7, %xmm4
  1269. pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
  1270. aesenc 48(%r15), %xmm8
  1271. pxor %xmm7, %xmm4
  1272. pshufd $0x4e, %xmm0, %xmm5
  1273. pxor %xmm0, %xmm5
  1274. movdqa %xmm0, %xmm6
  1275. pclmulqdq $0x11, %xmm7, %xmm6
  1276. aesenc 48(%r15), %xmm9
  1277. aesenc 48(%r15), %xmm10
  1278. pclmulqdq $0x00, %xmm0, %xmm7
  1279. aesenc 48(%r15), %xmm11
  1280. aesenc 48(%r15), %xmm12
  1281. pclmulqdq $0x00, %xmm5, %xmm4
  1282. aesenc 48(%r15), %xmm13
  1283. aesenc 48(%r15), %xmm14
  1284. aesenc 48(%r15), %xmm15
  1285. pxor %xmm7, %xmm1
  1286. pxor %xmm7, %xmm2
  1287. pxor %xmm6, %xmm1
  1288. pxor %xmm6, %xmm3
  1289. pxor %xmm4, %xmm1
  1290. movdqa 64(%rsp), %xmm7
  1291. movdqu -80(%rdx), %xmm0
  1292. pshufd $0x4e, %xmm7, %xmm4
  1293. pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
  1294. aesenc 64(%r15), %xmm8
  1295. pxor %xmm7, %xmm4
  1296. pshufd $0x4e, %xmm0, %xmm5
  1297. pxor %xmm0, %xmm5
  1298. movdqa %xmm0, %xmm6
  1299. pclmulqdq $0x11, %xmm7, %xmm6
  1300. aesenc 64(%r15), %xmm9
  1301. aesenc 64(%r15), %xmm10
  1302. pclmulqdq $0x00, %xmm0, %xmm7
  1303. aesenc 64(%r15), %xmm11
  1304. aesenc 64(%r15), %xmm12
  1305. pclmulqdq $0x00, %xmm5, %xmm4
  1306. aesenc 64(%r15), %xmm13
  1307. aesenc 64(%r15), %xmm14
  1308. aesenc 64(%r15), %xmm15
  1309. pxor %xmm7, %xmm1
  1310. pxor %xmm7, %xmm2
  1311. pxor %xmm6, %xmm1
  1312. pxor %xmm6, %xmm3
  1313. pxor %xmm4, %xmm1
  1314. movdqa 48(%rsp), %xmm7
  1315. movdqu -64(%rdx), %xmm0
  1316. pshufd $0x4e, %xmm7, %xmm4
  1317. pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
  1318. aesenc 80(%r15), %xmm8
  1319. pxor %xmm7, %xmm4
  1320. pshufd $0x4e, %xmm0, %xmm5
  1321. pxor %xmm0, %xmm5
  1322. movdqa %xmm0, %xmm6
  1323. pclmulqdq $0x11, %xmm7, %xmm6
  1324. aesenc 80(%r15), %xmm9
  1325. aesenc 80(%r15), %xmm10
  1326. pclmulqdq $0x00, %xmm0, %xmm7
  1327. aesenc 80(%r15), %xmm11
  1328. aesenc 80(%r15), %xmm12
  1329. pclmulqdq $0x00, %xmm5, %xmm4
  1330. aesenc 80(%r15), %xmm13
  1331. aesenc 80(%r15), %xmm14
  1332. aesenc 80(%r15), %xmm15
  1333. pxor %xmm7, %xmm1
  1334. pxor %xmm7, %xmm2
  1335. pxor %xmm6, %xmm1
  1336. pxor %xmm6, %xmm3
  1337. pxor %xmm4, %xmm1
  1338. movdqa 32(%rsp), %xmm7
  1339. movdqu -48(%rdx), %xmm0
  1340. pshufd $0x4e, %xmm7, %xmm4
  1341. pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
  1342. aesenc 96(%r15), %xmm8
  1343. pxor %xmm7, %xmm4
  1344. pshufd $0x4e, %xmm0, %xmm5
  1345. pxor %xmm0, %xmm5
  1346. movdqa %xmm0, %xmm6
  1347. pclmulqdq $0x11, %xmm7, %xmm6
  1348. aesenc 96(%r15), %xmm9
  1349. aesenc 96(%r15), %xmm10
  1350. pclmulqdq $0x00, %xmm0, %xmm7
  1351. aesenc 96(%r15), %xmm11
  1352. aesenc 96(%r15), %xmm12
  1353. pclmulqdq $0x00, %xmm5, %xmm4
  1354. aesenc 96(%r15), %xmm13
  1355. aesenc 96(%r15), %xmm14
  1356. aesenc 96(%r15), %xmm15
  1357. pxor %xmm7, %xmm1
  1358. pxor %xmm7, %xmm2
  1359. pxor %xmm6, %xmm1
  1360. pxor %xmm6, %xmm3
  1361. pxor %xmm4, %xmm1
  1362. movdqa 16(%rsp), %xmm7
  1363. movdqu -32(%rdx), %xmm0
  1364. pshufd $0x4e, %xmm7, %xmm4
  1365. pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
  1366. aesenc 112(%r15), %xmm8
  1367. pxor %xmm7, %xmm4
  1368. pshufd $0x4e, %xmm0, %xmm5
  1369. pxor %xmm0, %xmm5
  1370. movdqa %xmm0, %xmm6
  1371. pclmulqdq $0x11, %xmm7, %xmm6
  1372. aesenc 112(%r15), %xmm9
  1373. aesenc 112(%r15), %xmm10
  1374. pclmulqdq $0x00, %xmm0, %xmm7
  1375. aesenc 112(%r15), %xmm11
  1376. aesenc 112(%r15), %xmm12
  1377. pclmulqdq $0x00, %xmm5, %xmm4
  1378. aesenc 112(%r15), %xmm13
  1379. aesenc 112(%r15), %xmm14
  1380. aesenc 112(%r15), %xmm15
  1381. pxor %xmm7, %xmm1
  1382. pxor %xmm7, %xmm2
  1383. pxor %xmm6, %xmm1
  1384. pxor %xmm6, %xmm3
  1385. pxor %xmm4, %xmm1
  1386. movdqa (%rsp), %xmm7
  1387. movdqu -16(%rdx), %xmm0
  1388. pshufd $0x4e, %xmm7, %xmm4
  1389. pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
  1390. aesenc 128(%r15), %xmm8
  1391. pxor %xmm7, %xmm4
  1392. pshufd $0x4e, %xmm0, %xmm5
  1393. pxor %xmm0, %xmm5
  1394. movdqa %xmm0, %xmm6
  1395. pclmulqdq $0x11, %xmm7, %xmm6
  1396. aesenc 128(%r15), %xmm9
  1397. aesenc 128(%r15), %xmm10
  1398. pclmulqdq $0x00, %xmm0, %xmm7
  1399. aesenc 128(%r15), %xmm11
  1400. aesenc 128(%r15), %xmm12
  1401. pclmulqdq $0x00, %xmm5, %xmm4
  1402. aesenc 128(%r15), %xmm13
  1403. aesenc 128(%r15), %xmm14
  1404. aesenc 128(%r15), %xmm15
  1405. pxor %xmm7, %xmm1
  1406. pxor %xmm7, %xmm2
  1407. pxor %xmm6, %xmm1
  1408. pxor %xmm6, %xmm3
  1409. pxor %xmm4, %xmm1
  1410. movdqa %xmm1, %xmm5
  1411. psrldq $8, %xmm1
  1412. pslldq $8, %xmm5
  1413. aesenc 144(%r15), %xmm8
  1414. pxor %xmm5, %xmm2
  1415. pxor %xmm1, %xmm3
  1416. movdqa %xmm2, %xmm7
  1417. movdqa %xmm2, %xmm4
  1418. movdqa %xmm2, %xmm5
  1419. aesenc 144(%r15), %xmm9
  1420. pslld $31, %xmm7
  1421. pslld $30, %xmm4
  1422. pslld $25, %xmm5
  1423. aesenc 144(%r15), %xmm10
  1424. pxor %xmm4, %xmm7
  1425. pxor %xmm5, %xmm7
  1426. aesenc 144(%r15), %xmm11
  1427. movdqa %xmm7, %xmm4
  1428. pslldq $12, %xmm7
  1429. psrldq $4, %xmm4
  1430. aesenc 144(%r15), %xmm12
  1431. pxor %xmm7, %xmm2
  1432. movdqa %xmm2, %xmm5
  1433. movdqa %xmm2, %xmm1
  1434. movdqa %xmm2, %xmm0
  1435. aesenc 144(%r15), %xmm13
  1436. psrld $0x01, %xmm5
  1437. psrld $2, %xmm1
  1438. psrld $7, %xmm0
  1439. aesenc 144(%r15), %xmm14
  1440. pxor %xmm1, %xmm5
  1441. pxor %xmm0, %xmm5
  1442. aesenc 144(%r15), %xmm15
  1443. pxor %xmm4, %xmm5
  1444. pxor %xmm5, %xmm2
  1445. pxor %xmm3, %xmm2
  1446. cmpl $11, %r10d
  1447. movdqa 160(%r15), %xmm7
  1448. jl L_AES_GCM_encrypt_aesenc_128_ghash_avx_done
  1449. aesenc %xmm7, %xmm8
  1450. aesenc %xmm7, %xmm9
  1451. aesenc %xmm7, %xmm10
  1452. aesenc %xmm7, %xmm11
  1453. aesenc %xmm7, %xmm12
  1454. aesenc %xmm7, %xmm13
  1455. aesenc %xmm7, %xmm14
  1456. aesenc %xmm7, %xmm15
  1457. movdqa 176(%r15), %xmm7
  1458. aesenc %xmm7, %xmm8
  1459. aesenc %xmm7, %xmm9
  1460. aesenc %xmm7, %xmm10
  1461. aesenc %xmm7, %xmm11
  1462. aesenc %xmm7, %xmm12
  1463. aesenc %xmm7, %xmm13
  1464. aesenc %xmm7, %xmm14
  1465. aesenc %xmm7, %xmm15
  1466. cmpl $13, %r10d
  1467. movdqa 192(%r15), %xmm7
  1468. jl L_AES_GCM_encrypt_aesenc_128_ghash_avx_done
  1469. aesenc %xmm7, %xmm8
  1470. aesenc %xmm7, %xmm9
  1471. aesenc %xmm7, %xmm10
  1472. aesenc %xmm7, %xmm11
  1473. aesenc %xmm7, %xmm12
  1474. aesenc %xmm7, %xmm13
  1475. aesenc %xmm7, %xmm14
  1476. aesenc %xmm7, %xmm15
  1477. movdqa 208(%r15), %xmm7
  1478. aesenc %xmm7, %xmm8
  1479. aesenc %xmm7, %xmm9
  1480. aesenc %xmm7, %xmm10
  1481. aesenc %xmm7, %xmm11
  1482. aesenc %xmm7, %xmm12
  1483. aesenc %xmm7, %xmm13
  1484. aesenc %xmm7, %xmm14
  1485. aesenc %xmm7, %xmm15
  1486. movdqa 224(%r15), %xmm7
  1487. L_AES_GCM_encrypt_aesenc_128_ghash_avx_done:
  1488. aesenclast %xmm7, %xmm8
  1489. aesenclast %xmm7, %xmm9
  1490. movdqu (%rcx), %xmm0
  1491. movdqu 16(%rcx), %xmm1
  1492. pxor %xmm0, %xmm8
  1493. pxor %xmm1, %xmm9
  1494. movdqu %xmm8, (%rdx)
  1495. movdqu %xmm9, 16(%rdx)
  1496. aesenclast %xmm7, %xmm10
  1497. aesenclast %xmm7, %xmm11
  1498. movdqu 32(%rcx), %xmm0
  1499. movdqu 48(%rcx), %xmm1
  1500. pxor %xmm0, %xmm10
  1501. pxor %xmm1, %xmm11
  1502. movdqu %xmm10, 32(%rdx)
  1503. movdqu %xmm11, 48(%rdx)
  1504. aesenclast %xmm7, %xmm12
  1505. aesenclast %xmm7, %xmm13
  1506. movdqu 64(%rcx), %xmm0
  1507. movdqu 80(%rcx), %xmm1
  1508. pxor %xmm0, %xmm12
  1509. pxor %xmm1, %xmm13
  1510. movdqu %xmm12, 64(%rdx)
  1511. movdqu %xmm13, 80(%rdx)
  1512. aesenclast %xmm7, %xmm14
  1513. aesenclast %xmm7, %xmm15
  1514. movdqu 96(%rcx), %xmm0
  1515. movdqu 112(%rcx), %xmm1
  1516. pxor %xmm0, %xmm14
  1517. pxor %xmm1, %xmm15
  1518. movdqu %xmm14, 96(%rdx)
  1519. movdqu %xmm15, 112(%rdx)
  1520. addl $0x80, %ebx
  1521. cmpl %r13d, %ebx
  1522. jl L_AES_GCM_encrypt_ghash_128
  1523. L_AES_GCM_encrypt_end_128:
  1524. movdqa L_aes_gcm_bswap_mask(%rip), %xmm4
  1525. pshufb %xmm4, %xmm8
  1526. pshufb %xmm4, %xmm9
  1527. pshufb %xmm4, %xmm10
  1528. pshufb %xmm4, %xmm11
  1529. pxor %xmm2, %xmm8
  1530. pshufb %xmm4, %xmm12
  1531. pshufb %xmm4, %xmm13
  1532. pshufb %xmm4, %xmm14
  1533. pshufb %xmm4, %xmm15
  1534. movdqa 112(%rsp), %xmm7
  1535. pshufd $0x4e, %xmm8, %xmm1
  1536. pshufd $0x4e, %xmm7, %xmm2
  1537. movdqa %xmm7, %xmm3
  1538. movdqa %xmm7, %xmm0
  1539. pclmulqdq $0x11, %xmm8, %xmm3
  1540. pclmulqdq $0x00, %xmm8, %xmm0
  1541. pxor %xmm8, %xmm1
  1542. pxor %xmm7, %xmm2
  1543. pclmulqdq $0x00, %xmm2, %xmm1
  1544. pxor %xmm0, %xmm1
  1545. pxor %xmm3, %xmm1
  1546. movdqa %xmm1, %xmm2
  1547. movdqa %xmm0, %xmm4
  1548. movdqa %xmm3, %xmm6
  1549. pslldq $8, %xmm2
  1550. psrldq $8, %xmm1
  1551. pxor %xmm2, %xmm4
  1552. pxor %xmm1, %xmm6
  1553. movdqa 96(%rsp), %xmm7
  1554. pshufd $0x4e, %xmm9, %xmm1
  1555. pshufd $0x4e, %xmm7, %xmm2
  1556. movdqa %xmm7, %xmm3
  1557. movdqa %xmm7, %xmm0
  1558. pclmulqdq $0x11, %xmm9, %xmm3
  1559. pclmulqdq $0x00, %xmm9, %xmm0
  1560. pxor %xmm9, %xmm1
  1561. pxor %xmm7, %xmm2
  1562. pclmulqdq $0x00, %xmm2, %xmm1
  1563. pxor %xmm0, %xmm1
  1564. pxor %xmm3, %xmm1
  1565. movdqa %xmm1, %xmm2
  1566. pxor %xmm0, %xmm4
  1567. pxor %xmm3, %xmm6
  1568. pslldq $8, %xmm2
  1569. psrldq $8, %xmm1
  1570. pxor %xmm2, %xmm4
  1571. pxor %xmm1, %xmm6
  1572. movdqa 80(%rsp), %xmm7
  1573. pshufd $0x4e, %xmm10, %xmm1
  1574. pshufd $0x4e, %xmm7, %xmm2
  1575. movdqa %xmm7, %xmm3
  1576. movdqa %xmm7, %xmm0
  1577. pclmulqdq $0x11, %xmm10, %xmm3
  1578. pclmulqdq $0x00, %xmm10, %xmm0
  1579. pxor %xmm10, %xmm1
  1580. pxor %xmm7, %xmm2
  1581. pclmulqdq $0x00, %xmm2, %xmm1
  1582. pxor %xmm0, %xmm1
  1583. pxor %xmm3, %xmm1
  1584. movdqa %xmm1, %xmm2
  1585. pxor %xmm0, %xmm4
  1586. pxor %xmm3, %xmm6
  1587. pslldq $8, %xmm2
  1588. psrldq $8, %xmm1
  1589. pxor %xmm2, %xmm4
  1590. pxor %xmm1, %xmm6
  1591. movdqa 64(%rsp), %xmm7
  1592. pshufd $0x4e, %xmm11, %xmm1
  1593. pshufd $0x4e, %xmm7, %xmm2
  1594. movdqa %xmm7, %xmm3
  1595. movdqa %xmm7, %xmm0
  1596. pclmulqdq $0x11, %xmm11, %xmm3
  1597. pclmulqdq $0x00, %xmm11, %xmm0
  1598. pxor %xmm11, %xmm1
  1599. pxor %xmm7, %xmm2
  1600. pclmulqdq $0x00, %xmm2, %xmm1
  1601. pxor %xmm0, %xmm1
  1602. pxor %xmm3, %xmm1
  1603. movdqa %xmm1, %xmm2
  1604. pxor %xmm0, %xmm4
  1605. pxor %xmm3, %xmm6
  1606. pslldq $8, %xmm2
  1607. psrldq $8, %xmm1
  1608. pxor %xmm2, %xmm4
  1609. pxor %xmm1, %xmm6
  1610. movdqa 48(%rsp), %xmm7
  1611. pshufd $0x4e, %xmm12, %xmm1
  1612. pshufd $0x4e, %xmm7, %xmm2
  1613. movdqa %xmm7, %xmm3
  1614. movdqa %xmm7, %xmm0
  1615. pclmulqdq $0x11, %xmm12, %xmm3
  1616. pclmulqdq $0x00, %xmm12, %xmm0
  1617. pxor %xmm12, %xmm1
  1618. pxor %xmm7, %xmm2
  1619. pclmulqdq $0x00, %xmm2, %xmm1
  1620. pxor %xmm0, %xmm1
  1621. pxor %xmm3, %xmm1
  1622. movdqa %xmm1, %xmm2
  1623. pxor %xmm0, %xmm4
  1624. pxor %xmm3, %xmm6
  1625. pslldq $8, %xmm2
  1626. psrldq $8, %xmm1
  1627. pxor %xmm2, %xmm4
  1628. pxor %xmm1, %xmm6
  1629. movdqa 32(%rsp), %xmm7
  1630. pshufd $0x4e, %xmm13, %xmm1
  1631. pshufd $0x4e, %xmm7, %xmm2
  1632. movdqa %xmm7, %xmm3
  1633. movdqa %xmm7, %xmm0
  1634. pclmulqdq $0x11, %xmm13, %xmm3
  1635. pclmulqdq $0x00, %xmm13, %xmm0
  1636. pxor %xmm13, %xmm1
  1637. pxor %xmm7, %xmm2
  1638. pclmulqdq $0x00, %xmm2, %xmm1
  1639. pxor %xmm0, %xmm1
  1640. pxor %xmm3, %xmm1
  1641. movdqa %xmm1, %xmm2
  1642. pxor %xmm0, %xmm4
  1643. pxor %xmm3, %xmm6
  1644. pslldq $8, %xmm2
  1645. psrldq $8, %xmm1
  1646. pxor %xmm2, %xmm4
  1647. pxor %xmm1, %xmm6
  1648. movdqa 16(%rsp), %xmm7
  1649. pshufd $0x4e, %xmm14, %xmm1
  1650. pshufd $0x4e, %xmm7, %xmm2
  1651. movdqa %xmm7, %xmm3
  1652. movdqa %xmm7, %xmm0
  1653. pclmulqdq $0x11, %xmm14, %xmm3
  1654. pclmulqdq $0x00, %xmm14, %xmm0
  1655. pxor %xmm14, %xmm1
  1656. pxor %xmm7, %xmm2
  1657. pclmulqdq $0x00, %xmm2, %xmm1
  1658. pxor %xmm0, %xmm1
  1659. pxor %xmm3, %xmm1
  1660. movdqa %xmm1, %xmm2
  1661. pxor %xmm0, %xmm4
  1662. pxor %xmm3, %xmm6
  1663. pslldq $8, %xmm2
  1664. psrldq $8, %xmm1
  1665. pxor %xmm2, %xmm4
  1666. pxor %xmm1, %xmm6
  1667. movdqa (%rsp), %xmm7
  1668. pshufd $0x4e, %xmm15, %xmm1
  1669. pshufd $0x4e, %xmm7, %xmm2
  1670. movdqa %xmm7, %xmm3
  1671. movdqa %xmm7, %xmm0
  1672. pclmulqdq $0x11, %xmm15, %xmm3
  1673. pclmulqdq $0x00, %xmm15, %xmm0
  1674. pxor %xmm15, %xmm1
  1675. pxor %xmm7, %xmm2
  1676. pclmulqdq $0x00, %xmm2, %xmm1
  1677. pxor %xmm0, %xmm1
  1678. pxor %xmm3, %xmm1
  1679. movdqa %xmm1, %xmm2
  1680. pxor %xmm0, %xmm4
  1681. pxor %xmm3, %xmm6
  1682. pslldq $8, %xmm2
  1683. psrldq $8, %xmm1
  1684. pxor %xmm2, %xmm4
  1685. pxor %xmm1, %xmm6
  1686. movdqa %xmm4, %xmm0
  1687. movdqa %xmm4, %xmm1
  1688. movdqa %xmm4, %xmm2
  1689. pslld $31, %xmm0
  1690. pslld $30, %xmm1
  1691. pslld $25, %xmm2
  1692. pxor %xmm1, %xmm0
  1693. pxor %xmm2, %xmm0
  1694. movdqa %xmm0, %xmm1
  1695. psrldq $4, %xmm1
  1696. pslldq $12, %xmm0
  1697. pxor %xmm0, %xmm4
  1698. movdqa %xmm4, %xmm2
  1699. movdqa %xmm4, %xmm3
  1700. movdqa %xmm4, %xmm0
  1701. psrld $0x01, %xmm2
  1702. psrld $2, %xmm3
  1703. psrld $7, %xmm0
  1704. pxor %xmm3, %xmm2
  1705. pxor %xmm0, %xmm2
  1706. pxor %xmm1, %xmm2
  1707. pxor %xmm4, %xmm2
  1708. pxor %xmm2, %xmm6
  1709. movdqa (%rsp), %xmm5
  1710. L_AES_GCM_encrypt_done_128:
  1711. movl %r9d, %edx
  1712. cmpl %edx, %ebx
  1713. jge L_AES_GCM_encrypt_done_enc
  1714. movl %r9d, %r13d
  1715. andl $0xfffffff0, %r13d
  1716. cmpl %r13d, %ebx
  1717. jge L_AES_GCM_encrypt_last_block_done
  1718. leaq (%rdi,%rbx,1), %rcx
  1719. leaq (%rsi,%rbx,1), %rdx
  1720. movdqa 128(%rsp), %xmm8
  1721. movdqa %xmm8, %xmm9
  1722. pshufb L_aes_gcm_bswap_epi64(%rip), %xmm8
  1723. paddd L_aes_gcm_one(%rip), %xmm9
  1724. pxor (%r15), %xmm8
  1725. movdqa %xmm9, 128(%rsp)
  1726. aesenc 16(%r15), %xmm8
  1727. aesenc 32(%r15), %xmm8
  1728. aesenc 48(%r15), %xmm8
  1729. aesenc 64(%r15), %xmm8
  1730. aesenc 80(%r15), %xmm8
  1731. aesenc 96(%r15), %xmm8
  1732. aesenc 112(%r15), %xmm8
  1733. aesenc 128(%r15), %xmm8
  1734. aesenc 144(%r15), %xmm8
  1735. cmpl $11, %r10d
  1736. movdqa 160(%r15), %xmm9
  1737. jl L_AES_GCM_encrypt_aesenc_block_aesenc_avx_last
  1738. aesenc %xmm9, %xmm8
  1739. aesenc 176(%r15), %xmm8
  1740. cmpl $13, %r10d
  1741. movdqa 192(%r15), %xmm9
  1742. jl L_AES_GCM_encrypt_aesenc_block_aesenc_avx_last
  1743. aesenc %xmm9, %xmm8
  1744. aesenc 208(%r15), %xmm8
  1745. movdqa 224(%r15), %xmm9
  1746. L_AES_GCM_encrypt_aesenc_block_aesenc_avx_last:
  1747. aesenclast %xmm9, %xmm8
  1748. movdqu (%rcx), %xmm9
  1749. pxor %xmm9, %xmm8
  1750. movdqu %xmm8, (%rdx)
  1751. pshufb L_aes_gcm_bswap_mask(%rip), %xmm8
  1752. pxor %xmm8, %xmm6
  1753. addl $16, %ebx
  1754. cmpl %r13d, %ebx
  1755. jge L_AES_GCM_encrypt_last_block_ghash
  1756. L_AES_GCM_encrypt_last_block_start:
  1757. leaq (%rdi,%rbx,1), %rcx
  1758. leaq (%rsi,%rbx,1), %rdx
  1759. movdqa 128(%rsp), %xmm8
  1760. movdqa %xmm8, %xmm9
  1761. pshufb L_aes_gcm_bswap_epi64(%rip), %xmm8
  1762. paddd L_aes_gcm_one(%rip), %xmm9
  1763. pxor (%r15), %xmm8
  1764. movdqa %xmm9, 128(%rsp)
  1765. movdqa %xmm6, %xmm10
  1766. pclmulqdq $16, %xmm5, %xmm10
  1767. aesenc 16(%r15), %xmm8
  1768. aesenc 32(%r15), %xmm8
  1769. movdqa %xmm6, %xmm11
  1770. pclmulqdq $0x01, %xmm5, %xmm11
  1771. aesenc 48(%r15), %xmm8
  1772. aesenc 64(%r15), %xmm8
  1773. movdqa %xmm6, %xmm12
  1774. pclmulqdq $0x00, %xmm5, %xmm12
  1775. aesenc 80(%r15), %xmm8
  1776. movdqa %xmm6, %xmm1
  1777. pclmulqdq $0x11, %xmm5, %xmm1
  1778. aesenc 96(%r15), %xmm8
  1779. pxor %xmm11, %xmm10
  1780. movdqa %xmm10, %xmm2
  1781. psrldq $8, %xmm10
  1782. pslldq $8, %xmm2
  1783. aesenc 112(%r15), %xmm8
  1784. movdqa %xmm1, %xmm3
  1785. pxor %xmm12, %xmm2
  1786. pxor %xmm10, %xmm3
  1787. movdqa L_aes_gcm_mod2_128(%rip), %xmm0
  1788. movdqa %xmm2, %xmm11
  1789. pclmulqdq $16, %xmm0, %xmm11
  1790. aesenc 128(%r15), %xmm8
  1791. pshufd $0x4e, %xmm2, %xmm10
  1792. pxor %xmm11, %xmm10
  1793. movdqa %xmm10, %xmm11
  1794. pclmulqdq $16, %xmm0, %xmm11
  1795. aesenc 144(%r15), %xmm8
  1796. pshufd $0x4e, %xmm10, %xmm6
  1797. pxor %xmm11, %xmm6
  1798. pxor %xmm3, %xmm6
  1799. cmpl $11, %r10d
  1800. movdqa 160(%r15), %xmm9
  1801. jl L_AES_GCM_encrypt_aesenc_gfmul_last
  1802. aesenc %xmm9, %xmm8
  1803. aesenc 176(%r15), %xmm8
  1804. cmpl $13, %r10d
  1805. movdqa 192(%r15), %xmm9
  1806. jl L_AES_GCM_encrypt_aesenc_gfmul_last
  1807. aesenc %xmm9, %xmm8
  1808. aesenc 208(%r15), %xmm8
  1809. movdqa 224(%r15), %xmm9
  1810. L_AES_GCM_encrypt_aesenc_gfmul_last:
  1811. aesenclast %xmm9, %xmm8
  1812. movdqu (%rcx), %xmm9
  1813. pxor %xmm9, %xmm8
  1814. movdqu %xmm8, (%rdx)
  1815. pshufb L_aes_gcm_bswap_mask(%rip), %xmm8
  1816. pxor %xmm8, %xmm6
  1817. addl $16, %ebx
  1818. cmpl %r13d, %ebx
  1819. jl L_AES_GCM_encrypt_last_block_start
  1820. L_AES_GCM_encrypt_last_block_ghash:
  1821. pshufd $0x4e, %xmm5, %xmm9
  1822. pshufd $0x4e, %xmm6, %xmm10
  1823. movdqa %xmm6, %xmm11
  1824. movdqa %xmm6, %xmm8
  1825. pclmulqdq $0x11, %xmm5, %xmm11
  1826. pclmulqdq $0x00, %xmm5, %xmm8
  1827. pxor %xmm5, %xmm9
  1828. pxor %xmm6, %xmm10
  1829. pclmulqdq $0x00, %xmm10, %xmm9
  1830. pxor %xmm8, %xmm9
  1831. pxor %xmm11, %xmm9
  1832. movdqa %xmm9, %xmm10
  1833. movdqa %xmm11, %xmm6
  1834. pslldq $8, %xmm10
  1835. psrldq $8, %xmm9
  1836. pxor %xmm10, %xmm8
  1837. pxor %xmm9, %xmm6
  1838. movdqa %xmm8, %xmm12
  1839. movdqa %xmm8, %xmm13
  1840. movdqa %xmm8, %xmm14
  1841. pslld $31, %xmm12
  1842. pslld $30, %xmm13
  1843. pslld $25, %xmm14
  1844. pxor %xmm13, %xmm12
  1845. pxor %xmm14, %xmm12
  1846. movdqa %xmm12, %xmm13
  1847. psrldq $4, %xmm13
  1848. pslldq $12, %xmm12
  1849. pxor %xmm12, %xmm8
  1850. movdqa %xmm8, %xmm14
  1851. movdqa %xmm8, %xmm10
  1852. movdqa %xmm8, %xmm9
  1853. psrld $0x01, %xmm14
  1854. psrld $2, %xmm10
  1855. psrld $7, %xmm9
  1856. pxor %xmm10, %xmm14
  1857. pxor %xmm9, %xmm14
  1858. pxor %xmm13, %xmm14
  1859. pxor %xmm8, %xmm14
  1860. pxor %xmm14, %xmm6
  1861. L_AES_GCM_encrypt_last_block_done:
  1862. movl %r9d, %ecx
  1863. movl %ecx, %edx
  1864. andl $15, %ecx
  1865. jz L_AES_GCM_encrypt_aesenc_last15_enc_avx_done
  1866. movdqa 128(%rsp), %xmm4
  1867. pshufb L_aes_gcm_bswap_epi64(%rip), %xmm4
  1868. pxor (%r15), %xmm4
  1869. aesenc 16(%r15), %xmm4
  1870. aesenc 32(%r15), %xmm4
  1871. aesenc 48(%r15), %xmm4
  1872. aesenc 64(%r15), %xmm4
  1873. aesenc 80(%r15), %xmm4
  1874. aesenc 96(%r15), %xmm4
  1875. aesenc 112(%r15), %xmm4
  1876. aesenc 128(%r15), %xmm4
  1877. aesenc 144(%r15), %xmm4
  1878. cmpl $11, %r10d
  1879. movdqa 160(%r15), %xmm9
  1880. jl L_AES_GCM_encrypt_aesenc_last15_enc_avx_aesenc_avx_last
  1881. aesenc %xmm9, %xmm4
  1882. aesenc 176(%r15), %xmm4
  1883. cmpl $13, %r10d
  1884. movdqa 192(%r15), %xmm9
  1885. jl L_AES_GCM_encrypt_aesenc_last15_enc_avx_aesenc_avx_last
  1886. aesenc %xmm9, %xmm4
  1887. aesenc 208(%r15), %xmm4
  1888. movdqa 224(%r15), %xmm9
  1889. L_AES_GCM_encrypt_aesenc_last15_enc_avx_aesenc_avx_last:
  1890. aesenclast %xmm9, %xmm4
  1891. subq $16, %rsp
  1892. xorl %ecx, %ecx
  1893. movdqa %xmm4, (%rsp)
  1894. L_AES_GCM_encrypt_aesenc_last15_enc_avx_loop:
  1895. movzbl (%rdi,%rbx,1), %r13d
  1896. xorb (%rsp,%rcx,1), %r13b
  1897. movb %r13b, (%rsi,%rbx,1)
  1898. movb %r13b, (%rsp,%rcx,1)
  1899. incl %ebx
  1900. incl %ecx
  1901. cmpl %edx, %ebx
  1902. jl L_AES_GCM_encrypt_aesenc_last15_enc_avx_loop
  1903. xorq %r13, %r13
  1904. cmpl $16, %ecx
  1905. je L_AES_GCM_encrypt_aesenc_last15_enc_avx_finish_enc
  1906. L_AES_GCM_encrypt_aesenc_last15_enc_avx_byte_loop:
  1907. movb %r13b, (%rsp,%rcx,1)
  1908. incl %ecx
  1909. cmpl $16, %ecx
  1910. jl L_AES_GCM_encrypt_aesenc_last15_enc_avx_byte_loop
  1911. L_AES_GCM_encrypt_aesenc_last15_enc_avx_finish_enc:
  1912. movdqa (%rsp), %xmm4
  1913. addq $16, %rsp
  1914. pshufb L_aes_gcm_bswap_mask(%rip), %xmm4
  1915. pxor %xmm4, %xmm6
  1916. pshufd $0x4e, %xmm5, %xmm9
  1917. pshufd $0x4e, %xmm6, %xmm10
  1918. movdqa %xmm6, %xmm11
  1919. movdqa %xmm6, %xmm8
  1920. pclmulqdq $0x11, %xmm5, %xmm11
  1921. pclmulqdq $0x00, %xmm5, %xmm8
  1922. pxor %xmm5, %xmm9
  1923. pxor %xmm6, %xmm10
  1924. pclmulqdq $0x00, %xmm10, %xmm9
  1925. pxor %xmm8, %xmm9
  1926. pxor %xmm11, %xmm9
  1927. movdqa %xmm9, %xmm10
  1928. movdqa %xmm11, %xmm6
  1929. pslldq $8, %xmm10
  1930. psrldq $8, %xmm9
  1931. pxor %xmm10, %xmm8
  1932. pxor %xmm9, %xmm6
  1933. movdqa %xmm8, %xmm12
  1934. movdqa %xmm8, %xmm13
  1935. movdqa %xmm8, %xmm14
  1936. pslld $31, %xmm12
  1937. pslld $30, %xmm13
  1938. pslld $25, %xmm14
  1939. pxor %xmm13, %xmm12
  1940. pxor %xmm14, %xmm12
  1941. movdqa %xmm12, %xmm13
  1942. psrldq $4, %xmm13
  1943. pslldq $12, %xmm12
  1944. pxor %xmm12, %xmm8
  1945. movdqa %xmm8, %xmm14
  1946. movdqa %xmm8, %xmm10
  1947. movdqa %xmm8, %xmm9
  1948. psrld $0x01, %xmm14
  1949. psrld $2, %xmm10
  1950. psrld $7, %xmm9
  1951. pxor %xmm10, %xmm14
  1952. pxor %xmm9, %xmm14
  1953. pxor %xmm13, %xmm14
  1954. pxor %xmm8, %xmm14
  1955. pxor %xmm14, %xmm6
  1956. L_AES_GCM_encrypt_aesenc_last15_enc_avx_done:
  1957. L_AES_GCM_encrypt_done_enc:
  1958. movl %r9d, %edx
  1959. movl %r11d, %ecx
  1960. shlq $3, %rdx
  1961. shlq $3, %rcx
  1962. pinsrq $0x00, %rdx, %xmm0
  1963. pinsrq $0x01, %rcx, %xmm0
  1964. pxor %xmm0, %xmm6
  1965. pshufd $0x4e, %xmm5, %xmm9
  1966. pshufd $0x4e, %xmm6, %xmm10
  1967. movdqa %xmm6, %xmm11
  1968. movdqa %xmm6, %xmm8
  1969. pclmulqdq $0x11, %xmm5, %xmm11
  1970. pclmulqdq $0x00, %xmm5, %xmm8
  1971. pxor %xmm5, %xmm9
  1972. pxor %xmm6, %xmm10
  1973. pclmulqdq $0x00, %xmm10, %xmm9
  1974. pxor %xmm8, %xmm9
  1975. pxor %xmm11, %xmm9
  1976. movdqa %xmm9, %xmm10
  1977. movdqa %xmm11, %xmm6
  1978. pslldq $8, %xmm10
  1979. psrldq $8, %xmm9
  1980. pxor %xmm10, %xmm8
  1981. pxor %xmm9, %xmm6
  1982. movdqa %xmm8, %xmm12
  1983. movdqa %xmm8, %xmm13
  1984. movdqa %xmm8, %xmm14
  1985. pslld $31, %xmm12
  1986. pslld $30, %xmm13
  1987. pslld $25, %xmm14
  1988. pxor %xmm13, %xmm12
  1989. pxor %xmm14, %xmm12
  1990. movdqa %xmm12, %xmm13
  1991. psrldq $4, %xmm13
  1992. pslldq $12, %xmm12
  1993. pxor %xmm12, %xmm8
  1994. movdqa %xmm8, %xmm14
  1995. movdqa %xmm8, %xmm10
  1996. movdqa %xmm8, %xmm9
  1997. psrld $0x01, %xmm14
  1998. psrld $2, %xmm10
  1999. psrld $7, %xmm9
  2000. pxor %xmm10, %xmm14
  2001. pxor %xmm9, %xmm14
  2002. pxor %xmm13, %xmm14
  2003. pxor %xmm8, %xmm14
  2004. pxor %xmm14, %xmm6
  2005. pshufb L_aes_gcm_bswap_mask(%rip), %xmm6
  2006. movdqa 144(%rsp), %xmm0
  2007. pxor %xmm6, %xmm0
  2008. cmpl $16, %r14d
  2009. je L_AES_GCM_encrypt_store_tag_16
  2010. xorq %rcx, %rcx
  2011. movdqa %xmm0, (%rsp)
  2012. L_AES_GCM_encrypt_store_tag_loop:
  2013. movzbl (%rsp,%rcx,1), %r13d
  2014. movb %r13b, (%r8,%rcx,1)
  2015. incl %ecx
  2016. cmpl %r14d, %ecx
  2017. jne L_AES_GCM_encrypt_store_tag_loop
  2018. jmp L_AES_GCM_encrypt_store_tag_done
  2019. L_AES_GCM_encrypt_store_tag_16:
  2020. movdqu %xmm0, (%r8)
  2021. L_AES_GCM_encrypt_store_tag_done:
  2022. addq $0xa0, %rsp
  2023. popq %r15
  2024. popq %r14
  2025. popq %rbx
  2026. popq %r12
  2027. popq %r13
  2028. repz retq
  2029. #ifndef __APPLE__
  2030. .size AES_GCM_encrypt,.-AES_GCM_encrypt
  2031. #endif /* __APPLE__ */
  2032. #ifndef __APPLE__
  2033. .text
  2034. .globl AES_GCM_decrypt
  2035. .type AES_GCM_decrypt,@function
  2036. .align 16
  2037. AES_GCM_decrypt:
  2038. #else
  2039. .section __TEXT,__text
  2040. .globl _AES_GCM_decrypt
  2041. .p2align 4
  2042. _AES_GCM_decrypt:
  2043. #endif /* __APPLE__ */
  2044. pushq %r13
  2045. pushq %r12
  2046. pushq %rbx
  2047. pushq %r14
  2048. pushq %r15
  2049. pushq %rbp
  2050. movq %rdx, %r12
  2051. movq %rcx, %rax
  2052. movl 56(%rsp), %r11d
  2053. movl 64(%rsp), %ebx
  2054. movl 72(%rsp), %r14d
  2055. movq 80(%rsp), %r15
  2056. movl 88(%rsp), %r10d
  2057. movq 96(%rsp), %rbp
  2058. subq $0xa8, %rsp
  2059. pxor %xmm4, %xmm4
  2060. pxor %xmm6, %xmm6
  2061. cmpl $12, %ebx
  2062. movl %ebx, %edx
  2063. jne L_AES_GCM_decrypt_iv_not_12
  2064. # # Calculate values when IV is 12 bytes
  2065. # Set counter based on IV
  2066. movl $0x1000000, %ecx
  2067. pinsrq $0x00, (%rax), %xmm4
  2068. pinsrd $2, 8(%rax), %xmm4
  2069. pinsrd $3, %ecx, %xmm4
  2070. # H = Encrypt X(=0) and T = Encrypt counter
  2071. movdqa %xmm4, %xmm1
  2072. movdqa (%r15), %xmm5
  2073. pxor %xmm5, %xmm1
  2074. movdqa 16(%r15), %xmm7
  2075. aesenc %xmm7, %xmm5
  2076. aesenc %xmm7, %xmm1
  2077. movdqa 32(%r15), %xmm7
  2078. aesenc %xmm7, %xmm5
  2079. aesenc %xmm7, %xmm1
  2080. movdqa 48(%r15), %xmm7
  2081. aesenc %xmm7, %xmm5
  2082. aesenc %xmm7, %xmm1
  2083. movdqa 64(%r15), %xmm7
  2084. aesenc %xmm7, %xmm5
  2085. aesenc %xmm7, %xmm1
  2086. movdqa 80(%r15), %xmm7
  2087. aesenc %xmm7, %xmm5
  2088. aesenc %xmm7, %xmm1
  2089. movdqa 96(%r15), %xmm7
  2090. aesenc %xmm7, %xmm5
  2091. aesenc %xmm7, %xmm1
  2092. movdqa 112(%r15), %xmm7
  2093. aesenc %xmm7, %xmm5
  2094. aesenc %xmm7, %xmm1
  2095. movdqa 128(%r15), %xmm7
  2096. aesenc %xmm7, %xmm5
  2097. aesenc %xmm7, %xmm1
  2098. movdqa 144(%r15), %xmm7
  2099. aesenc %xmm7, %xmm5
  2100. aesenc %xmm7, %xmm1
  2101. cmpl $11, %r10d
  2102. movdqa 160(%r15), %xmm7
  2103. jl L_AES_GCM_decrypt_calc_iv_12_last
  2104. aesenc %xmm7, %xmm5
  2105. aesenc %xmm7, %xmm1
  2106. movdqa 176(%r15), %xmm7
  2107. aesenc %xmm7, %xmm5
  2108. aesenc %xmm7, %xmm1
  2109. cmpl $13, %r10d
  2110. movdqa 192(%r15), %xmm7
  2111. jl L_AES_GCM_decrypt_calc_iv_12_last
  2112. aesenc %xmm7, %xmm5
  2113. aesenc %xmm7, %xmm1
  2114. movdqa 208(%r15), %xmm7
  2115. aesenc %xmm7, %xmm5
  2116. aesenc %xmm7, %xmm1
  2117. movdqa 224(%r15), %xmm7
  2118. L_AES_GCM_decrypt_calc_iv_12_last:
  2119. aesenclast %xmm7, %xmm5
  2120. aesenclast %xmm7, %xmm1
  2121. pshufb L_aes_gcm_bswap_mask(%rip), %xmm5
  2122. movdqa %xmm1, 144(%rsp)
  2123. jmp L_AES_GCM_decrypt_iv_done
  2124. L_AES_GCM_decrypt_iv_not_12:
  2125. # Calculate values when IV is not 12 bytes
  2126. # H = Encrypt X(=0)
  2127. movdqa (%r15), %xmm5
  2128. aesenc 16(%r15), %xmm5
  2129. aesenc 32(%r15), %xmm5
  2130. aesenc 48(%r15), %xmm5
  2131. aesenc 64(%r15), %xmm5
  2132. aesenc 80(%r15), %xmm5
  2133. aesenc 96(%r15), %xmm5
  2134. aesenc 112(%r15), %xmm5
  2135. aesenc 128(%r15), %xmm5
  2136. aesenc 144(%r15), %xmm5
  2137. cmpl $11, %r10d
  2138. movdqa 160(%r15), %xmm9
  2139. jl L_AES_GCM_decrypt_calc_iv_1_aesenc_avx_last
  2140. aesenc %xmm9, %xmm5
  2141. aesenc 176(%r15), %xmm5
  2142. cmpl $13, %r10d
  2143. movdqa 192(%r15), %xmm9
  2144. jl L_AES_GCM_decrypt_calc_iv_1_aesenc_avx_last
  2145. aesenc %xmm9, %xmm5
  2146. aesenc 208(%r15), %xmm5
  2147. movdqa 224(%r15), %xmm9
  2148. L_AES_GCM_decrypt_calc_iv_1_aesenc_avx_last:
  2149. aesenclast %xmm9, %xmm5
  2150. pshufb L_aes_gcm_bswap_mask(%rip), %xmm5
  2151. # Calc counter
  2152. # Initialization vector
  2153. cmpl $0x00, %edx
  2154. movq $0x00, %rcx
  2155. je L_AES_GCM_decrypt_calc_iv_done
  2156. cmpl $16, %edx
  2157. jl L_AES_GCM_decrypt_calc_iv_lt16
  2158. andl $0xfffffff0, %edx
  2159. L_AES_GCM_decrypt_calc_iv_16_loop:
  2160. movdqu (%rax,%rcx,1), %xmm8
  2161. pshufb L_aes_gcm_bswap_mask(%rip), %xmm8
  2162. pxor %xmm8, %xmm4
  2163. pshufd $0x4e, %xmm4, %xmm1
  2164. pshufd $0x4e, %xmm5, %xmm2
  2165. movdqa %xmm5, %xmm3
  2166. movdqa %xmm5, %xmm0
  2167. pclmulqdq $0x11, %xmm4, %xmm3
  2168. pclmulqdq $0x00, %xmm4, %xmm0
  2169. pxor %xmm4, %xmm1
  2170. pxor %xmm5, %xmm2
  2171. pclmulqdq $0x00, %xmm2, %xmm1
  2172. pxor %xmm0, %xmm1
  2173. pxor %xmm3, %xmm1
  2174. movdqa %xmm1, %xmm2
  2175. movdqa %xmm0, %xmm7
  2176. movdqa %xmm3, %xmm4
  2177. pslldq $8, %xmm2
  2178. psrldq $8, %xmm1
  2179. pxor %xmm2, %xmm7
  2180. pxor %xmm1, %xmm4
  2181. movdqa %xmm7, %xmm0
  2182. movdqa %xmm4, %xmm1
  2183. psrld $31, %xmm0
  2184. psrld $31, %xmm1
  2185. pslld $0x01, %xmm7
  2186. pslld $0x01, %xmm4
  2187. movdqa %xmm0, %xmm2
  2188. pslldq $4, %xmm0
  2189. psrldq $12, %xmm2
  2190. pslldq $4, %xmm1
  2191. por %xmm2, %xmm4
  2192. por %xmm0, %xmm7
  2193. por %xmm1, %xmm4
  2194. movdqa %xmm7, %xmm0
  2195. movdqa %xmm7, %xmm1
  2196. movdqa %xmm7, %xmm2
  2197. pslld $31, %xmm0
  2198. pslld $30, %xmm1
  2199. pslld $25, %xmm2
  2200. pxor %xmm1, %xmm0
  2201. pxor %xmm2, %xmm0
  2202. movdqa %xmm0, %xmm1
  2203. psrldq $4, %xmm1
  2204. pslldq $12, %xmm0
  2205. pxor %xmm0, %xmm7
  2206. movdqa %xmm7, %xmm2
  2207. movdqa %xmm7, %xmm3
  2208. movdqa %xmm7, %xmm0
  2209. psrld $0x01, %xmm2
  2210. psrld $2, %xmm3
  2211. psrld $7, %xmm0
  2212. pxor %xmm3, %xmm2
  2213. pxor %xmm0, %xmm2
  2214. pxor %xmm1, %xmm2
  2215. pxor %xmm7, %xmm2
  2216. pxor %xmm2, %xmm4
  2217. addl $16, %ecx
  2218. cmpl %edx, %ecx
  2219. jl L_AES_GCM_decrypt_calc_iv_16_loop
  2220. movl %ebx, %edx
  2221. cmpl %edx, %ecx
  2222. je L_AES_GCM_decrypt_calc_iv_done
  2223. L_AES_GCM_decrypt_calc_iv_lt16:
  2224. subq $16, %rsp
  2225. pxor %xmm8, %xmm8
  2226. xorl %ebx, %ebx
  2227. movdqa %xmm8, (%rsp)
  2228. L_AES_GCM_decrypt_calc_iv_loop:
  2229. movzbl (%rax,%rcx,1), %r13d
  2230. movb %r13b, (%rsp,%rbx,1)
  2231. incl %ecx
  2232. incl %ebx
  2233. cmpl %edx, %ecx
  2234. jl L_AES_GCM_decrypt_calc_iv_loop
  2235. movdqa (%rsp), %xmm8
  2236. addq $16, %rsp
  2237. pshufb L_aes_gcm_bswap_mask(%rip), %xmm8
  2238. pxor %xmm8, %xmm4
  2239. pshufd $0x4e, %xmm4, %xmm1
  2240. pshufd $0x4e, %xmm5, %xmm2
  2241. movdqa %xmm5, %xmm3
  2242. movdqa %xmm5, %xmm0
  2243. pclmulqdq $0x11, %xmm4, %xmm3
  2244. pclmulqdq $0x00, %xmm4, %xmm0
  2245. pxor %xmm4, %xmm1
  2246. pxor %xmm5, %xmm2
  2247. pclmulqdq $0x00, %xmm2, %xmm1
  2248. pxor %xmm0, %xmm1
  2249. pxor %xmm3, %xmm1
  2250. movdqa %xmm1, %xmm2
  2251. movdqa %xmm0, %xmm7
  2252. movdqa %xmm3, %xmm4
  2253. pslldq $8, %xmm2
  2254. psrldq $8, %xmm1
  2255. pxor %xmm2, %xmm7
  2256. pxor %xmm1, %xmm4
  2257. movdqa %xmm7, %xmm0
  2258. movdqa %xmm4, %xmm1
  2259. psrld $31, %xmm0
  2260. psrld $31, %xmm1
  2261. pslld $0x01, %xmm7
  2262. pslld $0x01, %xmm4
  2263. movdqa %xmm0, %xmm2
  2264. pslldq $4, %xmm0
  2265. psrldq $12, %xmm2
  2266. pslldq $4, %xmm1
  2267. por %xmm2, %xmm4
  2268. por %xmm0, %xmm7
  2269. por %xmm1, %xmm4
  2270. movdqa %xmm7, %xmm0
  2271. movdqa %xmm7, %xmm1
  2272. movdqa %xmm7, %xmm2
  2273. pslld $31, %xmm0
  2274. pslld $30, %xmm1
  2275. pslld $25, %xmm2
  2276. pxor %xmm1, %xmm0
  2277. pxor %xmm2, %xmm0
  2278. movdqa %xmm0, %xmm1
  2279. psrldq $4, %xmm1
  2280. pslldq $12, %xmm0
  2281. pxor %xmm0, %xmm7
  2282. movdqa %xmm7, %xmm2
  2283. movdqa %xmm7, %xmm3
  2284. movdqa %xmm7, %xmm0
  2285. psrld $0x01, %xmm2
  2286. psrld $2, %xmm3
  2287. psrld $7, %xmm0
  2288. pxor %xmm3, %xmm2
  2289. pxor %xmm0, %xmm2
  2290. pxor %xmm1, %xmm2
  2291. pxor %xmm7, %xmm2
  2292. pxor %xmm2, %xmm4
  2293. L_AES_GCM_decrypt_calc_iv_done:
  2294. # T = Encrypt counter
  2295. pxor %xmm0, %xmm0
  2296. shll $3, %edx
  2297. pinsrq $0x00, %rdx, %xmm0
  2298. pxor %xmm0, %xmm4
  2299. pshufd $0x4e, %xmm4, %xmm1
  2300. pshufd $0x4e, %xmm5, %xmm2
  2301. movdqa %xmm5, %xmm3
  2302. movdqa %xmm5, %xmm0
  2303. pclmulqdq $0x11, %xmm4, %xmm3
  2304. pclmulqdq $0x00, %xmm4, %xmm0
  2305. pxor %xmm4, %xmm1
  2306. pxor %xmm5, %xmm2
  2307. pclmulqdq $0x00, %xmm2, %xmm1
  2308. pxor %xmm0, %xmm1
  2309. pxor %xmm3, %xmm1
  2310. movdqa %xmm1, %xmm2
  2311. movdqa %xmm0, %xmm7
  2312. movdqa %xmm3, %xmm4
  2313. pslldq $8, %xmm2
  2314. psrldq $8, %xmm1
  2315. pxor %xmm2, %xmm7
  2316. pxor %xmm1, %xmm4
  2317. movdqa %xmm7, %xmm0
  2318. movdqa %xmm4, %xmm1
  2319. psrld $31, %xmm0
  2320. psrld $31, %xmm1
  2321. pslld $0x01, %xmm7
  2322. pslld $0x01, %xmm4
  2323. movdqa %xmm0, %xmm2
  2324. pslldq $4, %xmm0
  2325. psrldq $12, %xmm2
  2326. pslldq $4, %xmm1
  2327. por %xmm2, %xmm4
  2328. por %xmm0, %xmm7
  2329. por %xmm1, %xmm4
  2330. movdqa %xmm7, %xmm0
  2331. movdqa %xmm7, %xmm1
  2332. movdqa %xmm7, %xmm2
  2333. pslld $31, %xmm0
  2334. pslld $30, %xmm1
  2335. pslld $25, %xmm2
  2336. pxor %xmm1, %xmm0
  2337. pxor %xmm2, %xmm0
  2338. movdqa %xmm0, %xmm1
  2339. psrldq $4, %xmm1
  2340. pslldq $12, %xmm0
  2341. pxor %xmm0, %xmm7
  2342. movdqa %xmm7, %xmm2
  2343. movdqa %xmm7, %xmm3
  2344. movdqa %xmm7, %xmm0
  2345. psrld $0x01, %xmm2
  2346. psrld $2, %xmm3
  2347. psrld $7, %xmm0
  2348. pxor %xmm3, %xmm2
  2349. pxor %xmm0, %xmm2
  2350. pxor %xmm1, %xmm2
  2351. pxor %xmm7, %xmm2
  2352. pxor %xmm2, %xmm4
  2353. pshufb L_aes_gcm_bswap_mask(%rip), %xmm4
  2354. # Encrypt counter
  2355. movdqa (%r15), %xmm8
  2356. pxor %xmm4, %xmm8
  2357. aesenc 16(%r15), %xmm8
  2358. aesenc 32(%r15), %xmm8
  2359. aesenc 48(%r15), %xmm8
  2360. aesenc 64(%r15), %xmm8
  2361. aesenc 80(%r15), %xmm8
  2362. aesenc 96(%r15), %xmm8
  2363. aesenc 112(%r15), %xmm8
  2364. aesenc 128(%r15), %xmm8
  2365. aesenc 144(%r15), %xmm8
  2366. cmpl $11, %r10d
  2367. movdqa 160(%r15), %xmm9
  2368. jl L_AES_GCM_decrypt_calc_iv_2_aesenc_avx_last
  2369. aesenc %xmm9, %xmm8
  2370. aesenc 176(%r15), %xmm8
  2371. cmpl $13, %r10d
  2372. movdqa 192(%r15), %xmm9
  2373. jl L_AES_GCM_decrypt_calc_iv_2_aesenc_avx_last
  2374. aesenc %xmm9, %xmm8
  2375. aesenc 208(%r15), %xmm8
  2376. movdqa 224(%r15), %xmm9
  2377. L_AES_GCM_decrypt_calc_iv_2_aesenc_avx_last:
  2378. aesenclast %xmm9, %xmm8
  2379. movdqa %xmm8, 144(%rsp)
  2380. L_AES_GCM_decrypt_iv_done:
  2381. # Additional authentication data
  2382. movl %r11d, %edx
  2383. cmpl $0x00, %edx
  2384. je L_AES_GCM_decrypt_calc_aad_done
  2385. xorl %ecx, %ecx
  2386. cmpl $16, %edx
  2387. jl L_AES_GCM_decrypt_calc_aad_lt16
  2388. andl $0xfffffff0, %edx
  2389. L_AES_GCM_decrypt_calc_aad_16_loop:
  2390. movdqu (%r12,%rcx,1), %xmm8
  2391. pshufb L_aes_gcm_bswap_mask(%rip), %xmm8
  2392. pxor %xmm8, %xmm6
  2393. pshufd $0x4e, %xmm6, %xmm1
  2394. pshufd $0x4e, %xmm5, %xmm2
  2395. movdqa %xmm5, %xmm3
  2396. movdqa %xmm5, %xmm0
  2397. pclmulqdq $0x11, %xmm6, %xmm3
  2398. pclmulqdq $0x00, %xmm6, %xmm0
  2399. pxor %xmm6, %xmm1
  2400. pxor %xmm5, %xmm2
  2401. pclmulqdq $0x00, %xmm2, %xmm1
  2402. pxor %xmm0, %xmm1
  2403. pxor %xmm3, %xmm1
  2404. movdqa %xmm1, %xmm2
  2405. movdqa %xmm0, %xmm7
  2406. movdqa %xmm3, %xmm6
  2407. pslldq $8, %xmm2
  2408. psrldq $8, %xmm1
  2409. pxor %xmm2, %xmm7
  2410. pxor %xmm1, %xmm6
  2411. movdqa %xmm7, %xmm0
  2412. movdqa %xmm6, %xmm1
  2413. psrld $31, %xmm0
  2414. psrld $31, %xmm1
  2415. pslld $0x01, %xmm7
  2416. pslld $0x01, %xmm6
  2417. movdqa %xmm0, %xmm2
  2418. pslldq $4, %xmm0
  2419. psrldq $12, %xmm2
  2420. pslldq $4, %xmm1
  2421. por %xmm2, %xmm6
  2422. por %xmm0, %xmm7
  2423. por %xmm1, %xmm6
  2424. movdqa %xmm7, %xmm0
  2425. movdqa %xmm7, %xmm1
  2426. movdqa %xmm7, %xmm2
  2427. pslld $31, %xmm0
  2428. pslld $30, %xmm1
  2429. pslld $25, %xmm2
  2430. pxor %xmm1, %xmm0
  2431. pxor %xmm2, %xmm0
  2432. movdqa %xmm0, %xmm1
  2433. psrldq $4, %xmm1
  2434. pslldq $12, %xmm0
  2435. pxor %xmm0, %xmm7
  2436. movdqa %xmm7, %xmm2
  2437. movdqa %xmm7, %xmm3
  2438. movdqa %xmm7, %xmm0
  2439. psrld $0x01, %xmm2
  2440. psrld $2, %xmm3
  2441. psrld $7, %xmm0
  2442. pxor %xmm3, %xmm2
  2443. pxor %xmm0, %xmm2
  2444. pxor %xmm1, %xmm2
  2445. pxor %xmm7, %xmm2
  2446. pxor %xmm2, %xmm6
  2447. addl $16, %ecx
  2448. cmpl %edx, %ecx
  2449. jl L_AES_GCM_decrypt_calc_aad_16_loop
  2450. movl %r11d, %edx
  2451. cmpl %edx, %ecx
  2452. je L_AES_GCM_decrypt_calc_aad_done
  2453. L_AES_GCM_decrypt_calc_aad_lt16:
  2454. subq $16, %rsp
  2455. pxor %xmm8, %xmm8
  2456. xorl %ebx, %ebx
  2457. movdqa %xmm8, (%rsp)
  2458. L_AES_GCM_decrypt_calc_aad_loop:
  2459. movzbl (%r12,%rcx,1), %r13d
  2460. movb %r13b, (%rsp,%rbx,1)
  2461. incl %ecx
  2462. incl %ebx
  2463. cmpl %edx, %ecx
  2464. jl L_AES_GCM_decrypt_calc_aad_loop
  2465. movdqa (%rsp), %xmm8
  2466. addq $16, %rsp
  2467. pshufb L_aes_gcm_bswap_mask(%rip), %xmm8
  2468. pxor %xmm8, %xmm6
  2469. pshufd $0x4e, %xmm6, %xmm1
  2470. pshufd $0x4e, %xmm5, %xmm2
  2471. movdqa %xmm5, %xmm3
  2472. movdqa %xmm5, %xmm0
  2473. pclmulqdq $0x11, %xmm6, %xmm3
  2474. pclmulqdq $0x00, %xmm6, %xmm0
  2475. pxor %xmm6, %xmm1
  2476. pxor %xmm5, %xmm2
  2477. pclmulqdq $0x00, %xmm2, %xmm1
  2478. pxor %xmm0, %xmm1
  2479. pxor %xmm3, %xmm1
  2480. movdqa %xmm1, %xmm2
  2481. movdqa %xmm0, %xmm7
  2482. movdqa %xmm3, %xmm6
  2483. pslldq $8, %xmm2
  2484. psrldq $8, %xmm1
  2485. pxor %xmm2, %xmm7
  2486. pxor %xmm1, %xmm6
  2487. movdqa %xmm7, %xmm0
  2488. movdqa %xmm6, %xmm1
  2489. psrld $31, %xmm0
  2490. psrld $31, %xmm1
  2491. pslld $0x01, %xmm7
  2492. pslld $0x01, %xmm6
  2493. movdqa %xmm0, %xmm2
  2494. pslldq $4, %xmm0
  2495. psrldq $12, %xmm2
  2496. pslldq $4, %xmm1
  2497. por %xmm2, %xmm6
  2498. por %xmm0, %xmm7
  2499. por %xmm1, %xmm6
  2500. movdqa %xmm7, %xmm0
  2501. movdqa %xmm7, %xmm1
  2502. movdqa %xmm7, %xmm2
  2503. pslld $31, %xmm0
  2504. pslld $30, %xmm1
  2505. pslld $25, %xmm2
  2506. pxor %xmm1, %xmm0
  2507. pxor %xmm2, %xmm0
  2508. movdqa %xmm0, %xmm1
  2509. psrldq $4, %xmm1
  2510. pslldq $12, %xmm0
  2511. pxor %xmm0, %xmm7
  2512. movdqa %xmm7, %xmm2
  2513. movdqa %xmm7, %xmm3
  2514. movdqa %xmm7, %xmm0
  2515. psrld $0x01, %xmm2
  2516. psrld $2, %xmm3
  2517. psrld $7, %xmm0
  2518. pxor %xmm3, %xmm2
  2519. pxor %xmm0, %xmm2
  2520. pxor %xmm1, %xmm2
  2521. pxor %xmm7, %xmm2
  2522. pxor %xmm2, %xmm6
  2523. L_AES_GCM_decrypt_calc_aad_done:
  2524. # Calculate counter and H
  2525. pshufb L_aes_gcm_bswap_epi64(%rip), %xmm4
  2526. movdqa %xmm5, %xmm9
  2527. paddd L_aes_gcm_one(%rip), %xmm4
  2528. movdqa %xmm5, %xmm8
  2529. movdqa %xmm4, 128(%rsp)
  2530. psrlq $63, %xmm9
  2531. psllq $0x01, %xmm8
  2532. pslldq $8, %xmm9
  2533. por %xmm9, %xmm8
  2534. pshufd $0xff, %xmm5, %xmm5
  2535. psrad $31, %xmm5
  2536. pand L_aes_gcm_mod2_128(%rip), %xmm5
  2537. pxor %xmm8, %xmm5
  2538. xorl %ebx, %ebx
  2539. cmpl $0x80, %r9d
  2540. movl %r9d, %r13d
  2541. jl L_AES_GCM_decrypt_done_128
  2542. andl $0xffffff80, %r13d
  2543. movdqa %xmm6, %xmm2
  2544. # H ^ 1
  2545. movdqa %xmm5, (%rsp)
  2546. # H ^ 2
  2547. pshufd $0x4e, %xmm5, %xmm9
  2548. pshufd $0x4e, %xmm5, %xmm10
  2549. movdqa %xmm5, %xmm11
  2550. movdqa %xmm5, %xmm8
  2551. pclmulqdq $0x11, %xmm5, %xmm11
  2552. pclmulqdq $0x00, %xmm5, %xmm8
  2553. pxor %xmm5, %xmm9
  2554. pxor %xmm5, %xmm10
  2555. pclmulqdq $0x00, %xmm10, %xmm9
  2556. pxor %xmm8, %xmm9
  2557. pxor %xmm11, %xmm9
  2558. movdqa %xmm9, %xmm10
  2559. movdqa %xmm11, %xmm0
  2560. pslldq $8, %xmm10
  2561. psrldq $8, %xmm9
  2562. pxor %xmm10, %xmm8
  2563. pxor %xmm9, %xmm0
  2564. movdqa %xmm8, %xmm12
  2565. movdqa %xmm8, %xmm13
  2566. movdqa %xmm8, %xmm14
  2567. pslld $31, %xmm12
  2568. pslld $30, %xmm13
  2569. pslld $25, %xmm14
  2570. pxor %xmm13, %xmm12
  2571. pxor %xmm14, %xmm12
  2572. movdqa %xmm12, %xmm13
  2573. psrldq $4, %xmm13
  2574. pslldq $12, %xmm12
  2575. pxor %xmm12, %xmm8
  2576. movdqa %xmm8, %xmm14
  2577. movdqa %xmm8, %xmm10
  2578. movdqa %xmm8, %xmm9
  2579. psrld $0x01, %xmm14
  2580. psrld $2, %xmm10
  2581. psrld $7, %xmm9
  2582. pxor %xmm10, %xmm14
  2583. pxor %xmm9, %xmm14
  2584. pxor %xmm13, %xmm14
  2585. pxor %xmm8, %xmm14
  2586. pxor %xmm14, %xmm0
  2587. movdqa %xmm0, 16(%rsp)
  2588. # H ^ 3
  2589. pshufd $0x4e, %xmm5, %xmm9
  2590. pshufd $0x4e, %xmm0, %xmm10
  2591. movdqa %xmm0, %xmm11
  2592. movdqa %xmm0, %xmm8
  2593. pclmulqdq $0x11, %xmm5, %xmm11
  2594. pclmulqdq $0x00, %xmm5, %xmm8
  2595. pxor %xmm5, %xmm9
  2596. pxor %xmm0, %xmm10
  2597. pclmulqdq $0x00, %xmm10, %xmm9
  2598. pxor %xmm8, %xmm9
  2599. pxor %xmm11, %xmm9
  2600. movdqa %xmm9, %xmm10
  2601. movdqa %xmm11, %xmm1
  2602. pslldq $8, %xmm10
  2603. psrldq $8, %xmm9
  2604. pxor %xmm10, %xmm8
  2605. pxor %xmm9, %xmm1
  2606. movdqa %xmm8, %xmm12
  2607. movdqa %xmm8, %xmm13
  2608. movdqa %xmm8, %xmm14
  2609. pslld $31, %xmm12
  2610. pslld $30, %xmm13
  2611. pslld $25, %xmm14
  2612. pxor %xmm13, %xmm12
  2613. pxor %xmm14, %xmm12
  2614. movdqa %xmm12, %xmm13
  2615. psrldq $4, %xmm13
  2616. pslldq $12, %xmm12
  2617. pxor %xmm12, %xmm8
  2618. movdqa %xmm8, %xmm14
  2619. movdqa %xmm8, %xmm10
  2620. movdqa %xmm8, %xmm9
  2621. psrld $0x01, %xmm14
  2622. psrld $2, %xmm10
  2623. psrld $7, %xmm9
  2624. pxor %xmm10, %xmm14
  2625. pxor %xmm9, %xmm14
  2626. pxor %xmm13, %xmm14
  2627. pxor %xmm8, %xmm14
  2628. pxor %xmm14, %xmm1
  2629. movdqa %xmm1, 32(%rsp)
  2630. # H ^ 4
  2631. pshufd $0x4e, %xmm0, %xmm9
  2632. pshufd $0x4e, %xmm0, %xmm10
  2633. movdqa %xmm0, %xmm11
  2634. movdqa %xmm0, %xmm8
  2635. pclmulqdq $0x11, %xmm0, %xmm11
  2636. pclmulqdq $0x00, %xmm0, %xmm8
  2637. pxor %xmm0, %xmm9
  2638. pxor %xmm0, %xmm10
  2639. pclmulqdq $0x00, %xmm10, %xmm9
  2640. pxor %xmm8, %xmm9
  2641. pxor %xmm11, %xmm9
  2642. movdqa %xmm9, %xmm10
  2643. movdqa %xmm11, %xmm3
  2644. pslldq $8, %xmm10
  2645. psrldq $8, %xmm9
  2646. pxor %xmm10, %xmm8
  2647. pxor %xmm9, %xmm3
  2648. movdqa %xmm8, %xmm12
  2649. movdqa %xmm8, %xmm13
  2650. movdqa %xmm8, %xmm14
  2651. pslld $31, %xmm12
  2652. pslld $30, %xmm13
  2653. pslld $25, %xmm14
  2654. pxor %xmm13, %xmm12
  2655. pxor %xmm14, %xmm12
  2656. movdqa %xmm12, %xmm13
  2657. psrldq $4, %xmm13
  2658. pslldq $12, %xmm12
  2659. pxor %xmm12, %xmm8
  2660. movdqa %xmm8, %xmm14
  2661. movdqa %xmm8, %xmm10
  2662. movdqa %xmm8, %xmm9
  2663. psrld $0x01, %xmm14
  2664. psrld $2, %xmm10
  2665. psrld $7, %xmm9
  2666. pxor %xmm10, %xmm14
  2667. pxor %xmm9, %xmm14
  2668. pxor %xmm13, %xmm14
  2669. pxor %xmm8, %xmm14
  2670. pxor %xmm14, %xmm3
  2671. movdqa %xmm3, 48(%rsp)
  2672. # H ^ 5
  2673. pshufd $0x4e, %xmm0, %xmm9
  2674. pshufd $0x4e, %xmm1, %xmm10
  2675. movdqa %xmm1, %xmm11
  2676. movdqa %xmm1, %xmm8
  2677. pclmulqdq $0x11, %xmm0, %xmm11
  2678. pclmulqdq $0x00, %xmm0, %xmm8
  2679. pxor %xmm0, %xmm9
  2680. pxor %xmm1, %xmm10
  2681. pclmulqdq $0x00, %xmm10, %xmm9
  2682. pxor %xmm8, %xmm9
  2683. pxor %xmm11, %xmm9
  2684. movdqa %xmm9, %xmm10
  2685. movdqa %xmm11, %xmm7
  2686. pslldq $8, %xmm10
  2687. psrldq $8, %xmm9
  2688. pxor %xmm10, %xmm8
  2689. pxor %xmm9, %xmm7
  2690. movdqa %xmm8, %xmm12
  2691. movdqa %xmm8, %xmm13
  2692. movdqa %xmm8, %xmm14
  2693. pslld $31, %xmm12
  2694. pslld $30, %xmm13
  2695. pslld $25, %xmm14
  2696. pxor %xmm13, %xmm12
  2697. pxor %xmm14, %xmm12
  2698. movdqa %xmm12, %xmm13
  2699. psrldq $4, %xmm13
  2700. pslldq $12, %xmm12
  2701. pxor %xmm12, %xmm8
  2702. movdqa %xmm8, %xmm14
  2703. movdqa %xmm8, %xmm10
  2704. movdqa %xmm8, %xmm9
  2705. psrld $0x01, %xmm14
  2706. psrld $2, %xmm10
  2707. psrld $7, %xmm9
  2708. pxor %xmm10, %xmm14
  2709. pxor %xmm9, %xmm14
  2710. pxor %xmm13, %xmm14
  2711. pxor %xmm8, %xmm14
  2712. pxor %xmm14, %xmm7
  2713. movdqa %xmm7, 64(%rsp)
  2714. # H ^ 6
  2715. pshufd $0x4e, %xmm1, %xmm9
  2716. pshufd $0x4e, %xmm1, %xmm10
  2717. movdqa %xmm1, %xmm11
  2718. movdqa %xmm1, %xmm8
  2719. pclmulqdq $0x11, %xmm1, %xmm11
  2720. pclmulqdq $0x00, %xmm1, %xmm8
  2721. pxor %xmm1, %xmm9
  2722. pxor %xmm1, %xmm10
  2723. pclmulqdq $0x00, %xmm10, %xmm9
  2724. pxor %xmm8, %xmm9
  2725. pxor %xmm11, %xmm9
  2726. movdqa %xmm9, %xmm10
  2727. movdqa %xmm11, %xmm7
  2728. pslldq $8, %xmm10
  2729. psrldq $8, %xmm9
  2730. pxor %xmm10, %xmm8
  2731. pxor %xmm9, %xmm7
  2732. movdqa %xmm8, %xmm12
  2733. movdqa %xmm8, %xmm13
  2734. movdqa %xmm8, %xmm14
  2735. pslld $31, %xmm12
  2736. pslld $30, %xmm13
  2737. pslld $25, %xmm14
  2738. pxor %xmm13, %xmm12
  2739. pxor %xmm14, %xmm12
  2740. movdqa %xmm12, %xmm13
  2741. psrldq $4, %xmm13
  2742. pslldq $12, %xmm12
  2743. pxor %xmm12, %xmm8
  2744. movdqa %xmm8, %xmm14
  2745. movdqa %xmm8, %xmm10
  2746. movdqa %xmm8, %xmm9
  2747. psrld $0x01, %xmm14
  2748. psrld $2, %xmm10
  2749. psrld $7, %xmm9
  2750. pxor %xmm10, %xmm14
  2751. pxor %xmm9, %xmm14
  2752. pxor %xmm13, %xmm14
  2753. pxor %xmm8, %xmm14
  2754. pxor %xmm14, %xmm7
  2755. movdqa %xmm7, 80(%rsp)
  2756. # H ^ 7
  2757. pshufd $0x4e, %xmm1, %xmm9
  2758. pshufd $0x4e, %xmm3, %xmm10
  2759. movdqa %xmm3, %xmm11
  2760. movdqa %xmm3, %xmm8
  2761. pclmulqdq $0x11, %xmm1, %xmm11
  2762. pclmulqdq $0x00, %xmm1, %xmm8
  2763. pxor %xmm1, %xmm9
  2764. pxor %xmm3, %xmm10
  2765. pclmulqdq $0x00, %xmm10, %xmm9
  2766. pxor %xmm8, %xmm9
  2767. pxor %xmm11, %xmm9
  2768. movdqa %xmm9, %xmm10
  2769. movdqa %xmm11, %xmm7
  2770. pslldq $8, %xmm10
  2771. psrldq $8, %xmm9
  2772. pxor %xmm10, %xmm8
  2773. pxor %xmm9, %xmm7
  2774. movdqa %xmm8, %xmm12
  2775. movdqa %xmm8, %xmm13
  2776. movdqa %xmm8, %xmm14
  2777. pslld $31, %xmm12
  2778. pslld $30, %xmm13
  2779. pslld $25, %xmm14
  2780. pxor %xmm13, %xmm12
  2781. pxor %xmm14, %xmm12
  2782. movdqa %xmm12, %xmm13
  2783. psrldq $4, %xmm13
  2784. pslldq $12, %xmm12
  2785. pxor %xmm12, %xmm8
  2786. movdqa %xmm8, %xmm14
  2787. movdqa %xmm8, %xmm10
  2788. movdqa %xmm8, %xmm9
  2789. psrld $0x01, %xmm14
  2790. psrld $2, %xmm10
  2791. psrld $7, %xmm9
  2792. pxor %xmm10, %xmm14
  2793. pxor %xmm9, %xmm14
  2794. pxor %xmm13, %xmm14
  2795. pxor %xmm8, %xmm14
  2796. pxor %xmm14, %xmm7
  2797. movdqa %xmm7, 96(%rsp)
  2798. # H ^ 8
  2799. pshufd $0x4e, %xmm3, %xmm9
  2800. pshufd $0x4e, %xmm3, %xmm10
  2801. movdqa %xmm3, %xmm11
  2802. movdqa %xmm3, %xmm8
  2803. pclmulqdq $0x11, %xmm3, %xmm11
  2804. pclmulqdq $0x00, %xmm3, %xmm8
  2805. pxor %xmm3, %xmm9
  2806. pxor %xmm3, %xmm10
  2807. pclmulqdq $0x00, %xmm10, %xmm9
  2808. pxor %xmm8, %xmm9
  2809. pxor %xmm11, %xmm9
  2810. movdqa %xmm9, %xmm10
  2811. movdqa %xmm11, %xmm7
  2812. pslldq $8, %xmm10
  2813. psrldq $8, %xmm9
  2814. pxor %xmm10, %xmm8
  2815. pxor %xmm9, %xmm7
  2816. movdqa %xmm8, %xmm12
  2817. movdqa %xmm8, %xmm13
  2818. movdqa %xmm8, %xmm14
  2819. pslld $31, %xmm12
  2820. pslld $30, %xmm13
  2821. pslld $25, %xmm14
  2822. pxor %xmm13, %xmm12
  2823. pxor %xmm14, %xmm12
  2824. movdqa %xmm12, %xmm13
  2825. psrldq $4, %xmm13
  2826. pslldq $12, %xmm12
  2827. pxor %xmm12, %xmm8
  2828. movdqa %xmm8, %xmm14
  2829. movdqa %xmm8, %xmm10
  2830. movdqa %xmm8, %xmm9
  2831. psrld $0x01, %xmm14
  2832. psrld $2, %xmm10
  2833. psrld $7, %xmm9
  2834. pxor %xmm10, %xmm14
  2835. pxor %xmm9, %xmm14
  2836. pxor %xmm13, %xmm14
  2837. pxor %xmm8, %xmm14
  2838. pxor %xmm14, %xmm7
  2839. movdqa %xmm7, 112(%rsp)
  2840. L_AES_GCM_decrypt_ghash_128:
  2841. leaq (%rdi,%rbx,1), %rcx
  2842. leaq (%rsi,%rbx,1), %rdx
  2843. movdqa 128(%rsp), %xmm8
  2844. movdqa L_aes_gcm_bswap_epi64(%rip), %xmm1
  2845. movdqa %xmm8, %xmm0
  2846. pshufb %xmm1, %xmm8
  2847. movdqa %xmm0, %xmm9
  2848. paddd L_aes_gcm_one(%rip), %xmm9
  2849. pshufb %xmm1, %xmm9
  2850. movdqa %xmm0, %xmm10
  2851. paddd L_aes_gcm_two(%rip), %xmm10
  2852. pshufb %xmm1, %xmm10
  2853. movdqa %xmm0, %xmm11
  2854. paddd L_aes_gcm_three(%rip), %xmm11
  2855. pshufb %xmm1, %xmm11
  2856. movdqa %xmm0, %xmm12
  2857. paddd L_aes_gcm_four(%rip), %xmm12
  2858. pshufb %xmm1, %xmm12
  2859. movdqa %xmm0, %xmm13
  2860. paddd L_aes_gcm_five(%rip), %xmm13
  2861. pshufb %xmm1, %xmm13
  2862. movdqa %xmm0, %xmm14
  2863. paddd L_aes_gcm_six(%rip), %xmm14
  2864. pshufb %xmm1, %xmm14
  2865. movdqa %xmm0, %xmm15
  2866. paddd L_aes_gcm_seven(%rip), %xmm15
  2867. pshufb %xmm1, %xmm15
  2868. paddd L_aes_gcm_eight(%rip), %xmm0
  2869. movdqa (%r15), %xmm7
  2870. movdqa %xmm0, 128(%rsp)
  2871. pxor %xmm7, %xmm8
  2872. pxor %xmm7, %xmm9
  2873. pxor %xmm7, %xmm10
  2874. pxor %xmm7, %xmm11
  2875. pxor %xmm7, %xmm12
  2876. pxor %xmm7, %xmm13
  2877. pxor %xmm7, %xmm14
  2878. pxor %xmm7, %xmm15
  2879. movdqa 112(%rsp), %xmm7
  2880. movdqu (%rcx), %xmm0
  2881. aesenc 16(%r15), %xmm8
  2882. pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
  2883. pxor %xmm2, %xmm0
  2884. pshufd $0x4e, %xmm7, %xmm1
  2885. pshufd $0x4e, %xmm0, %xmm5
  2886. pxor %xmm7, %xmm1
  2887. pxor %xmm0, %xmm5
  2888. movdqa %xmm0, %xmm3
  2889. pclmulqdq $0x11, %xmm7, %xmm3
  2890. aesenc 16(%r15), %xmm9
  2891. aesenc 16(%r15), %xmm10
  2892. movdqa %xmm0, %xmm2
  2893. pclmulqdq $0x00, %xmm7, %xmm2
  2894. aesenc 16(%r15), %xmm11
  2895. aesenc 16(%r15), %xmm12
  2896. pclmulqdq $0x00, %xmm5, %xmm1
  2897. aesenc 16(%r15), %xmm13
  2898. aesenc 16(%r15), %xmm14
  2899. aesenc 16(%r15), %xmm15
  2900. pxor %xmm2, %xmm1
  2901. pxor %xmm3, %xmm1
  2902. movdqa 96(%rsp), %xmm7
  2903. movdqu 16(%rcx), %xmm0
  2904. pshufd $0x4e, %xmm7, %xmm4
  2905. pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
  2906. aesenc 32(%r15), %xmm8
  2907. pxor %xmm7, %xmm4
  2908. pshufd $0x4e, %xmm0, %xmm5
  2909. pxor %xmm0, %xmm5
  2910. movdqa %xmm0, %xmm6
  2911. pclmulqdq $0x11, %xmm7, %xmm6
  2912. aesenc 32(%r15), %xmm9
  2913. aesenc 32(%r15), %xmm10
  2914. pclmulqdq $0x00, %xmm0, %xmm7
  2915. aesenc 32(%r15), %xmm11
  2916. aesenc 32(%r15), %xmm12
  2917. pclmulqdq $0x00, %xmm5, %xmm4
  2918. aesenc 32(%r15), %xmm13
  2919. aesenc 32(%r15), %xmm14
  2920. aesenc 32(%r15), %xmm15
  2921. pxor %xmm7, %xmm1
  2922. pxor %xmm7, %xmm2
  2923. pxor %xmm6, %xmm1
  2924. pxor %xmm6, %xmm3
  2925. pxor %xmm4, %xmm1
  2926. movdqa 80(%rsp), %xmm7
  2927. movdqu 32(%rcx), %xmm0
  2928. pshufd $0x4e, %xmm7, %xmm4
  2929. pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
  2930. aesenc 48(%r15), %xmm8
  2931. pxor %xmm7, %xmm4
  2932. pshufd $0x4e, %xmm0, %xmm5
  2933. pxor %xmm0, %xmm5
  2934. movdqa %xmm0, %xmm6
  2935. pclmulqdq $0x11, %xmm7, %xmm6
  2936. aesenc 48(%r15), %xmm9
  2937. aesenc 48(%r15), %xmm10
  2938. pclmulqdq $0x00, %xmm0, %xmm7
  2939. aesenc 48(%r15), %xmm11
  2940. aesenc 48(%r15), %xmm12
  2941. pclmulqdq $0x00, %xmm5, %xmm4
  2942. aesenc 48(%r15), %xmm13
  2943. aesenc 48(%r15), %xmm14
  2944. aesenc 48(%r15), %xmm15
  2945. pxor %xmm7, %xmm1
  2946. pxor %xmm7, %xmm2
  2947. pxor %xmm6, %xmm1
  2948. pxor %xmm6, %xmm3
  2949. pxor %xmm4, %xmm1
  2950. movdqa 64(%rsp), %xmm7
  2951. movdqu 48(%rcx), %xmm0
  2952. pshufd $0x4e, %xmm7, %xmm4
  2953. pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
  2954. aesenc 64(%r15), %xmm8
  2955. pxor %xmm7, %xmm4
  2956. pshufd $0x4e, %xmm0, %xmm5
  2957. pxor %xmm0, %xmm5
  2958. movdqa %xmm0, %xmm6
  2959. pclmulqdq $0x11, %xmm7, %xmm6
  2960. aesenc 64(%r15), %xmm9
  2961. aesenc 64(%r15), %xmm10
  2962. pclmulqdq $0x00, %xmm0, %xmm7
  2963. aesenc 64(%r15), %xmm11
  2964. aesenc 64(%r15), %xmm12
  2965. pclmulqdq $0x00, %xmm5, %xmm4
  2966. aesenc 64(%r15), %xmm13
  2967. aesenc 64(%r15), %xmm14
  2968. aesenc 64(%r15), %xmm15
  2969. pxor %xmm7, %xmm1
  2970. pxor %xmm7, %xmm2
  2971. pxor %xmm6, %xmm1
  2972. pxor %xmm6, %xmm3
  2973. pxor %xmm4, %xmm1
  2974. movdqa 48(%rsp), %xmm7
  2975. movdqu 64(%rcx), %xmm0
  2976. pshufd $0x4e, %xmm7, %xmm4
  2977. pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
  2978. aesenc 80(%r15), %xmm8
  2979. pxor %xmm7, %xmm4
  2980. pshufd $0x4e, %xmm0, %xmm5
  2981. pxor %xmm0, %xmm5
  2982. movdqa %xmm0, %xmm6
  2983. pclmulqdq $0x11, %xmm7, %xmm6
  2984. aesenc 80(%r15), %xmm9
  2985. aesenc 80(%r15), %xmm10
  2986. pclmulqdq $0x00, %xmm0, %xmm7
  2987. aesenc 80(%r15), %xmm11
  2988. aesenc 80(%r15), %xmm12
  2989. pclmulqdq $0x00, %xmm5, %xmm4
  2990. aesenc 80(%r15), %xmm13
  2991. aesenc 80(%r15), %xmm14
  2992. aesenc 80(%r15), %xmm15
  2993. pxor %xmm7, %xmm1
  2994. pxor %xmm7, %xmm2
  2995. pxor %xmm6, %xmm1
  2996. pxor %xmm6, %xmm3
  2997. pxor %xmm4, %xmm1
  2998. movdqa 32(%rsp), %xmm7
  2999. movdqu 80(%rcx), %xmm0
  3000. pshufd $0x4e, %xmm7, %xmm4
  3001. pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
  3002. aesenc 96(%r15), %xmm8
  3003. pxor %xmm7, %xmm4
  3004. pshufd $0x4e, %xmm0, %xmm5
  3005. pxor %xmm0, %xmm5
  3006. movdqa %xmm0, %xmm6
  3007. pclmulqdq $0x11, %xmm7, %xmm6
  3008. aesenc 96(%r15), %xmm9
  3009. aesenc 96(%r15), %xmm10
  3010. pclmulqdq $0x00, %xmm0, %xmm7
  3011. aesenc 96(%r15), %xmm11
  3012. aesenc 96(%r15), %xmm12
  3013. pclmulqdq $0x00, %xmm5, %xmm4
  3014. aesenc 96(%r15), %xmm13
  3015. aesenc 96(%r15), %xmm14
  3016. aesenc 96(%r15), %xmm15
  3017. pxor %xmm7, %xmm1
  3018. pxor %xmm7, %xmm2
  3019. pxor %xmm6, %xmm1
  3020. pxor %xmm6, %xmm3
  3021. pxor %xmm4, %xmm1
  3022. movdqa 16(%rsp), %xmm7
  3023. movdqu 96(%rcx), %xmm0
  3024. pshufd $0x4e, %xmm7, %xmm4
  3025. pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
  3026. aesenc 112(%r15), %xmm8
  3027. pxor %xmm7, %xmm4
  3028. pshufd $0x4e, %xmm0, %xmm5
  3029. pxor %xmm0, %xmm5
  3030. movdqa %xmm0, %xmm6
  3031. pclmulqdq $0x11, %xmm7, %xmm6
  3032. aesenc 112(%r15), %xmm9
  3033. aesenc 112(%r15), %xmm10
  3034. pclmulqdq $0x00, %xmm0, %xmm7
  3035. aesenc 112(%r15), %xmm11
  3036. aesenc 112(%r15), %xmm12
  3037. pclmulqdq $0x00, %xmm5, %xmm4
  3038. aesenc 112(%r15), %xmm13
  3039. aesenc 112(%r15), %xmm14
  3040. aesenc 112(%r15), %xmm15
  3041. pxor %xmm7, %xmm1
  3042. pxor %xmm7, %xmm2
  3043. pxor %xmm6, %xmm1
  3044. pxor %xmm6, %xmm3
  3045. pxor %xmm4, %xmm1
  3046. movdqa (%rsp), %xmm7
  3047. movdqu 112(%rcx), %xmm0
  3048. pshufd $0x4e, %xmm7, %xmm4
  3049. pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
  3050. aesenc 128(%r15), %xmm8
  3051. pxor %xmm7, %xmm4
  3052. pshufd $0x4e, %xmm0, %xmm5
  3053. pxor %xmm0, %xmm5
  3054. movdqa %xmm0, %xmm6
  3055. pclmulqdq $0x11, %xmm7, %xmm6
  3056. aesenc 128(%r15), %xmm9
  3057. aesenc 128(%r15), %xmm10
  3058. pclmulqdq $0x00, %xmm0, %xmm7
  3059. aesenc 128(%r15), %xmm11
  3060. aesenc 128(%r15), %xmm12
  3061. pclmulqdq $0x00, %xmm5, %xmm4
  3062. aesenc 128(%r15), %xmm13
  3063. aesenc 128(%r15), %xmm14
  3064. aesenc 128(%r15), %xmm15
  3065. pxor %xmm7, %xmm1
  3066. pxor %xmm7, %xmm2
  3067. pxor %xmm6, %xmm1
  3068. pxor %xmm6, %xmm3
  3069. pxor %xmm4, %xmm1
  3070. movdqa %xmm1, %xmm5
  3071. psrldq $8, %xmm1
  3072. pslldq $8, %xmm5
  3073. aesenc 144(%r15), %xmm8
  3074. pxor %xmm5, %xmm2
  3075. pxor %xmm1, %xmm3
  3076. movdqa %xmm2, %xmm7
  3077. movdqa %xmm2, %xmm4
  3078. movdqa %xmm2, %xmm5
  3079. aesenc 144(%r15), %xmm9
  3080. pslld $31, %xmm7
  3081. pslld $30, %xmm4
  3082. pslld $25, %xmm5
  3083. aesenc 144(%r15), %xmm10
  3084. pxor %xmm4, %xmm7
  3085. pxor %xmm5, %xmm7
  3086. aesenc 144(%r15), %xmm11
  3087. movdqa %xmm7, %xmm4
  3088. pslldq $12, %xmm7
  3089. psrldq $4, %xmm4
  3090. aesenc 144(%r15), %xmm12
  3091. pxor %xmm7, %xmm2
  3092. movdqa %xmm2, %xmm5
  3093. movdqa %xmm2, %xmm1
  3094. movdqa %xmm2, %xmm0
  3095. aesenc 144(%r15), %xmm13
  3096. psrld $0x01, %xmm5
  3097. psrld $2, %xmm1
  3098. psrld $7, %xmm0
  3099. aesenc 144(%r15), %xmm14
  3100. pxor %xmm1, %xmm5
  3101. pxor %xmm0, %xmm5
  3102. aesenc 144(%r15), %xmm15
  3103. pxor %xmm4, %xmm5
  3104. pxor %xmm5, %xmm2
  3105. pxor %xmm3, %xmm2
  3106. cmpl $11, %r10d
  3107. movdqa 160(%r15), %xmm7
  3108. jl L_AES_GCM_decrypt_aesenc_128_ghash_avx_done
  3109. aesenc %xmm7, %xmm8
  3110. aesenc %xmm7, %xmm9
  3111. aesenc %xmm7, %xmm10
  3112. aesenc %xmm7, %xmm11
  3113. aesenc %xmm7, %xmm12
  3114. aesenc %xmm7, %xmm13
  3115. aesenc %xmm7, %xmm14
  3116. aesenc %xmm7, %xmm15
  3117. movdqa 176(%r15), %xmm7
  3118. aesenc %xmm7, %xmm8
  3119. aesenc %xmm7, %xmm9
  3120. aesenc %xmm7, %xmm10
  3121. aesenc %xmm7, %xmm11
  3122. aesenc %xmm7, %xmm12
  3123. aesenc %xmm7, %xmm13
  3124. aesenc %xmm7, %xmm14
  3125. aesenc %xmm7, %xmm15
  3126. cmpl $13, %r10d
  3127. movdqa 192(%r15), %xmm7
  3128. jl L_AES_GCM_decrypt_aesenc_128_ghash_avx_done
  3129. aesenc %xmm7, %xmm8
  3130. aesenc %xmm7, %xmm9
  3131. aesenc %xmm7, %xmm10
  3132. aesenc %xmm7, %xmm11
  3133. aesenc %xmm7, %xmm12
  3134. aesenc %xmm7, %xmm13
  3135. aesenc %xmm7, %xmm14
  3136. aesenc %xmm7, %xmm15
  3137. movdqa 208(%r15), %xmm7
  3138. aesenc %xmm7, %xmm8
  3139. aesenc %xmm7, %xmm9
  3140. aesenc %xmm7, %xmm10
  3141. aesenc %xmm7, %xmm11
  3142. aesenc %xmm7, %xmm12
  3143. aesenc %xmm7, %xmm13
  3144. aesenc %xmm7, %xmm14
  3145. aesenc %xmm7, %xmm15
  3146. movdqa 224(%r15), %xmm7
  3147. L_AES_GCM_decrypt_aesenc_128_ghash_avx_done:
  3148. aesenclast %xmm7, %xmm8
  3149. aesenclast %xmm7, %xmm9
  3150. movdqu (%rcx), %xmm0
  3151. movdqu 16(%rcx), %xmm1
  3152. pxor %xmm0, %xmm8
  3153. pxor %xmm1, %xmm9
  3154. movdqu %xmm8, (%rdx)
  3155. movdqu %xmm9, 16(%rdx)
  3156. aesenclast %xmm7, %xmm10
  3157. aesenclast %xmm7, %xmm11
  3158. movdqu 32(%rcx), %xmm0
  3159. movdqu 48(%rcx), %xmm1
  3160. pxor %xmm0, %xmm10
  3161. pxor %xmm1, %xmm11
  3162. movdqu %xmm10, 32(%rdx)
  3163. movdqu %xmm11, 48(%rdx)
  3164. aesenclast %xmm7, %xmm12
  3165. aesenclast %xmm7, %xmm13
  3166. movdqu 64(%rcx), %xmm0
  3167. movdqu 80(%rcx), %xmm1
  3168. pxor %xmm0, %xmm12
  3169. pxor %xmm1, %xmm13
  3170. movdqu %xmm12, 64(%rdx)
  3171. movdqu %xmm13, 80(%rdx)
  3172. aesenclast %xmm7, %xmm14
  3173. aesenclast %xmm7, %xmm15
  3174. movdqu 96(%rcx), %xmm0
  3175. movdqu 112(%rcx), %xmm1
  3176. pxor %xmm0, %xmm14
  3177. pxor %xmm1, %xmm15
  3178. movdqu %xmm14, 96(%rdx)
  3179. movdqu %xmm15, 112(%rdx)
  3180. addl $0x80, %ebx
  3181. cmpl %r13d, %ebx
  3182. jl L_AES_GCM_decrypt_ghash_128
  3183. movdqa %xmm2, %xmm6
  3184. movdqa (%rsp), %xmm5
  3185. L_AES_GCM_decrypt_done_128:
  3186. movl %r9d, %edx
  3187. cmpl %edx, %ebx
  3188. jge L_AES_GCM_decrypt_done_dec
  3189. movl %r9d, %r13d
  3190. andl $0xfffffff0, %r13d
  3191. cmpl %r13d, %ebx
  3192. jge L_AES_GCM_decrypt_last_block_done
  3193. L_AES_GCM_decrypt_last_block_start:
  3194. leaq (%rdi,%rbx,1), %rcx
  3195. leaq (%rsi,%rbx,1), %rdx
  3196. movdqu (%rcx), %xmm1
  3197. movdqa %xmm5, %xmm0
  3198. pshufb L_aes_gcm_bswap_mask(%rip), %xmm1
  3199. pxor %xmm6, %xmm1
  3200. movdqa 128(%rsp), %xmm8
  3201. movdqa %xmm8, %xmm9
  3202. pshufb L_aes_gcm_bswap_epi64(%rip), %xmm8
  3203. paddd L_aes_gcm_one(%rip), %xmm9
  3204. pxor (%r15), %xmm8
  3205. movdqa %xmm9, 128(%rsp)
  3206. movdqa %xmm1, %xmm10
  3207. pclmulqdq $16, %xmm0, %xmm10
  3208. aesenc 16(%r15), %xmm8
  3209. aesenc 32(%r15), %xmm8
  3210. movdqa %xmm1, %xmm11
  3211. pclmulqdq $0x01, %xmm0, %xmm11
  3212. aesenc 48(%r15), %xmm8
  3213. aesenc 64(%r15), %xmm8
  3214. movdqa %xmm1, %xmm12
  3215. pclmulqdq $0x00, %xmm0, %xmm12
  3216. aesenc 80(%r15), %xmm8
  3217. movdqa %xmm1, %xmm1
  3218. pclmulqdq $0x11, %xmm0, %xmm1
  3219. aesenc 96(%r15), %xmm8
  3220. pxor %xmm11, %xmm10
  3221. movdqa %xmm10, %xmm2
  3222. psrldq $8, %xmm10
  3223. pslldq $8, %xmm2
  3224. aesenc 112(%r15), %xmm8
  3225. movdqa %xmm1, %xmm3
  3226. pxor %xmm12, %xmm2
  3227. pxor %xmm10, %xmm3
  3228. movdqa L_aes_gcm_mod2_128(%rip), %xmm0
  3229. movdqa %xmm2, %xmm11
  3230. pclmulqdq $16, %xmm0, %xmm11
  3231. aesenc 128(%r15), %xmm8
  3232. pshufd $0x4e, %xmm2, %xmm10
  3233. pxor %xmm11, %xmm10
  3234. movdqa %xmm10, %xmm11
  3235. pclmulqdq $16, %xmm0, %xmm11
  3236. aesenc 144(%r15), %xmm8
  3237. pshufd $0x4e, %xmm10, %xmm6
  3238. pxor %xmm11, %xmm6
  3239. pxor %xmm3, %xmm6
  3240. cmpl $11, %r10d
  3241. movdqa 160(%r15), %xmm9
  3242. jl L_AES_GCM_decrypt_aesenc_gfmul_last
  3243. aesenc %xmm9, %xmm8
  3244. aesenc 176(%r15), %xmm8
  3245. cmpl $13, %r10d
  3246. movdqa 192(%r15), %xmm9
  3247. jl L_AES_GCM_decrypt_aesenc_gfmul_last
  3248. aesenc %xmm9, %xmm8
  3249. aesenc 208(%r15), %xmm8
  3250. movdqa 224(%r15), %xmm9
  3251. L_AES_GCM_decrypt_aesenc_gfmul_last:
  3252. aesenclast %xmm9, %xmm8
  3253. movdqu (%rcx), %xmm9
  3254. pxor %xmm9, %xmm8
  3255. movdqu %xmm8, (%rdx)
  3256. addl $16, %ebx
  3257. cmpl %r13d, %ebx
  3258. jl L_AES_GCM_decrypt_last_block_start
  3259. L_AES_GCM_decrypt_last_block_done:
  3260. movl %r9d, %ecx
  3261. movl %ecx, %edx
  3262. andl $15, %ecx
  3263. jz L_AES_GCM_decrypt_aesenc_last15_dec_avx_done
  3264. movdqa 128(%rsp), %xmm4
  3265. pshufb L_aes_gcm_bswap_epi64(%rip), %xmm4
  3266. pxor (%r15), %xmm4
  3267. aesenc 16(%r15), %xmm4
  3268. aesenc 32(%r15), %xmm4
  3269. aesenc 48(%r15), %xmm4
  3270. aesenc 64(%r15), %xmm4
  3271. aesenc 80(%r15), %xmm4
  3272. aesenc 96(%r15), %xmm4
  3273. aesenc 112(%r15), %xmm4
  3274. aesenc 128(%r15), %xmm4
  3275. aesenc 144(%r15), %xmm4
  3276. cmpl $11, %r10d
  3277. movdqa 160(%r15), %xmm9
  3278. jl L_AES_GCM_decrypt_aesenc_last15_dec_avx_aesenc_avx_last
  3279. aesenc %xmm9, %xmm4
  3280. aesenc 176(%r15), %xmm4
  3281. cmpl $13, %r10d
  3282. movdqa 192(%r15), %xmm9
  3283. jl L_AES_GCM_decrypt_aesenc_last15_dec_avx_aesenc_avx_last
  3284. aesenc %xmm9, %xmm4
  3285. aesenc 208(%r15), %xmm4
  3286. movdqa 224(%r15), %xmm9
  3287. L_AES_GCM_decrypt_aesenc_last15_dec_avx_aesenc_avx_last:
  3288. aesenclast %xmm9, %xmm4
  3289. subq $32, %rsp
  3290. xorl %ecx, %ecx
  3291. movdqa %xmm4, (%rsp)
  3292. pxor %xmm0, %xmm0
  3293. movdqa %xmm0, 16(%rsp)
  3294. L_AES_GCM_decrypt_aesenc_last15_dec_avx_loop:
  3295. movzbl (%rdi,%rbx,1), %r13d
  3296. movb %r13b, 16(%rsp,%rcx,1)
  3297. xorb (%rsp,%rcx,1), %r13b
  3298. movb %r13b, (%rsi,%rbx,1)
  3299. incl %ebx
  3300. incl %ecx
  3301. cmpl %edx, %ebx
  3302. jl L_AES_GCM_decrypt_aesenc_last15_dec_avx_loop
  3303. movdqa 16(%rsp), %xmm4
  3304. addq $32, %rsp
  3305. pshufb L_aes_gcm_bswap_mask(%rip), %xmm4
  3306. pxor %xmm4, %xmm6
  3307. pshufd $0x4e, %xmm5, %xmm9
  3308. pshufd $0x4e, %xmm6, %xmm10
  3309. movdqa %xmm6, %xmm11
  3310. movdqa %xmm6, %xmm8
  3311. pclmulqdq $0x11, %xmm5, %xmm11
  3312. pclmulqdq $0x00, %xmm5, %xmm8
  3313. pxor %xmm5, %xmm9
  3314. pxor %xmm6, %xmm10
  3315. pclmulqdq $0x00, %xmm10, %xmm9
  3316. pxor %xmm8, %xmm9
  3317. pxor %xmm11, %xmm9
  3318. movdqa %xmm9, %xmm10
  3319. movdqa %xmm11, %xmm6
  3320. pslldq $8, %xmm10
  3321. psrldq $8, %xmm9
  3322. pxor %xmm10, %xmm8
  3323. pxor %xmm9, %xmm6
  3324. movdqa %xmm8, %xmm12
  3325. movdqa %xmm8, %xmm13
  3326. movdqa %xmm8, %xmm14
  3327. pslld $31, %xmm12
  3328. pslld $30, %xmm13
  3329. pslld $25, %xmm14
  3330. pxor %xmm13, %xmm12
  3331. pxor %xmm14, %xmm12
  3332. movdqa %xmm12, %xmm13
  3333. psrldq $4, %xmm13
  3334. pslldq $12, %xmm12
  3335. pxor %xmm12, %xmm8
  3336. movdqa %xmm8, %xmm14
  3337. movdqa %xmm8, %xmm10
  3338. movdqa %xmm8, %xmm9
  3339. psrld $0x01, %xmm14
  3340. psrld $2, %xmm10
  3341. psrld $7, %xmm9
  3342. pxor %xmm10, %xmm14
  3343. pxor %xmm9, %xmm14
  3344. pxor %xmm13, %xmm14
  3345. pxor %xmm8, %xmm14
  3346. pxor %xmm14, %xmm6
  3347. L_AES_GCM_decrypt_aesenc_last15_dec_avx_done:
  3348. L_AES_GCM_decrypt_done_dec:
  3349. movl %r9d, %edx
  3350. movl %r11d, %ecx
  3351. shlq $3, %rdx
  3352. shlq $3, %rcx
  3353. pinsrq $0x00, %rdx, %xmm0
  3354. pinsrq $0x01, %rcx, %xmm0
  3355. pxor %xmm0, %xmm6
  3356. pshufd $0x4e, %xmm5, %xmm9
  3357. pshufd $0x4e, %xmm6, %xmm10
  3358. movdqa %xmm6, %xmm11
  3359. movdqa %xmm6, %xmm8
  3360. pclmulqdq $0x11, %xmm5, %xmm11
  3361. pclmulqdq $0x00, %xmm5, %xmm8
  3362. pxor %xmm5, %xmm9
  3363. pxor %xmm6, %xmm10
  3364. pclmulqdq $0x00, %xmm10, %xmm9
  3365. pxor %xmm8, %xmm9
  3366. pxor %xmm11, %xmm9
  3367. movdqa %xmm9, %xmm10
  3368. movdqa %xmm11, %xmm6
  3369. pslldq $8, %xmm10
  3370. psrldq $8, %xmm9
  3371. pxor %xmm10, %xmm8
  3372. pxor %xmm9, %xmm6
  3373. movdqa %xmm8, %xmm12
  3374. movdqa %xmm8, %xmm13
  3375. movdqa %xmm8, %xmm14
  3376. pslld $31, %xmm12
  3377. pslld $30, %xmm13
  3378. pslld $25, %xmm14
  3379. pxor %xmm13, %xmm12
  3380. pxor %xmm14, %xmm12
  3381. movdqa %xmm12, %xmm13
  3382. psrldq $4, %xmm13
  3383. pslldq $12, %xmm12
  3384. pxor %xmm12, %xmm8
  3385. movdqa %xmm8, %xmm14
  3386. movdqa %xmm8, %xmm10
  3387. movdqa %xmm8, %xmm9
  3388. psrld $0x01, %xmm14
  3389. psrld $2, %xmm10
  3390. psrld $7, %xmm9
  3391. pxor %xmm10, %xmm14
  3392. pxor %xmm9, %xmm14
  3393. pxor %xmm13, %xmm14
  3394. pxor %xmm8, %xmm14
  3395. pxor %xmm14, %xmm6
  3396. pshufb L_aes_gcm_bswap_mask(%rip), %xmm6
  3397. movdqa 144(%rsp), %xmm0
  3398. pxor %xmm6, %xmm0
  3399. cmpl $16, %r14d
  3400. je L_AES_GCM_decrypt_cmp_tag_16
  3401. subq $16, %rsp
  3402. xorq %rcx, %rcx
  3403. xorq %rbx, %rbx
  3404. movdqa %xmm0, (%rsp)
  3405. L_AES_GCM_decrypt_cmp_tag_loop:
  3406. movzbl (%rsp,%rcx,1), %r13d
  3407. xorb (%r8,%rcx,1), %r13b
  3408. orb %r13b, %bl
  3409. incl %ecx
  3410. cmpl %r14d, %ecx
  3411. jne L_AES_GCM_decrypt_cmp_tag_loop
  3412. cmpb $0x00, %bl
  3413. sete %bl
  3414. addq $16, %rsp
  3415. xorq %rcx, %rcx
  3416. jmp L_AES_GCM_decrypt_cmp_tag_done
  3417. L_AES_GCM_decrypt_cmp_tag_16:
  3418. movdqu (%r8), %xmm1
  3419. pcmpeqb %xmm1, %xmm0
  3420. pmovmskb %xmm0, %rdx
  3421. # %%edx == 0xFFFF then return 1 else => return 0
  3422. xorl %ebx, %ebx
  3423. cmpl $0xffff, %edx
  3424. sete %bl
  3425. L_AES_GCM_decrypt_cmp_tag_done:
  3426. movl %ebx, (%rbp)
  3427. addq $0xa8, %rsp
  3428. popq %rbp
  3429. popq %r15
  3430. popq %r14
  3431. popq %rbx
  3432. popq %r12
  3433. popq %r13
  3434. repz retq
  3435. #ifndef __APPLE__
  3436. .size AES_GCM_decrypt,.-AES_GCM_decrypt
  3437. #endif /* __APPLE__ */
  3438. #ifdef WOLFSSL_AESGCM_STREAM
  3439. #ifndef __APPLE__
  3440. .text
  3441. .globl AES_GCM_init_aesni
  3442. .type AES_GCM_init_aesni,@function
  3443. .align 16
  3444. AES_GCM_init_aesni:
  3445. #else
  3446. .section __TEXT,__text
  3447. .globl _AES_GCM_init_aesni
  3448. .p2align 4
  3449. _AES_GCM_init_aesni:
  3450. #endif /* __APPLE__ */
  3451. pushq %r12
  3452. pushq %r13
  3453. pushq %r14
  3454. movq %rdx, %r10
  3455. movl %ecx, %r11d
  3456. movq 32(%rsp), %rax
  3457. subq $16, %rsp
  3458. pxor %xmm4, %xmm4
  3459. movl %r11d, %edx
  3460. cmpl $12, %edx
  3461. jne L_AES_GCM_init_aesni_iv_not_12
  3462. # # Calculate values when IV is 12 bytes
  3463. # Set counter based on IV
  3464. movl $0x1000000, %ecx
  3465. pinsrq $0x00, (%r10), %xmm4
  3466. pinsrd $2, 8(%r10), %xmm4
  3467. pinsrd $3, %ecx, %xmm4
  3468. # H = Encrypt X(=0) and T = Encrypt counter
  3469. movdqa %xmm4, %xmm1
  3470. movdqa (%rdi), %xmm5
  3471. pxor %xmm5, %xmm1
  3472. movdqa 16(%rdi), %xmm7
  3473. aesenc %xmm7, %xmm5
  3474. aesenc %xmm7, %xmm1
  3475. movdqa 32(%rdi), %xmm7
  3476. aesenc %xmm7, %xmm5
  3477. aesenc %xmm7, %xmm1
  3478. movdqa 48(%rdi), %xmm7
  3479. aesenc %xmm7, %xmm5
  3480. aesenc %xmm7, %xmm1
  3481. movdqa 64(%rdi), %xmm7
  3482. aesenc %xmm7, %xmm5
  3483. aesenc %xmm7, %xmm1
  3484. movdqa 80(%rdi), %xmm7
  3485. aesenc %xmm7, %xmm5
  3486. aesenc %xmm7, %xmm1
  3487. movdqa 96(%rdi), %xmm7
  3488. aesenc %xmm7, %xmm5
  3489. aesenc %xmm7, %xmm1
  3490. movdqa 112(%rdi), %xmm7
  3491. aesenc %xmm7, %xmm5
  3492. aesenc %xmm7, %xmm1
  3493. movdqa 128(%rdi), %xmm7
  3494. aesenc %xmm7, %xmm5
  3495. aesenc %xmm7, %xmm1
  3496. movdqa 144(%rdi), %xmm7
  3497. aesenc %xmm7, %xmm5
  3498. aesenc %xmm7, %xmm1
  3499. cmpl $11, %esi
  3500. movdqa 160(%rdi), %xmm7
  3501. jl L_AES_GCM_init_aesni_calc_iv_12_last
  3502. aesenc %xmm7, %xmm5
  3503. aesenc %xmm7, %xmm1
  3504. movdqa 176(%rdi), %xmm7
  3505. aesenc %xmm7, %xmm5
  3506. aesenc %xmm7, %xmm1
  3507. cmpl $13, %esi
  3508. movdqa 192(%rdi), %xmm7
  3509. jl L_AES_GCM_init_aesni_calc_iv_12_last
  3510. aesenc %xmm7, %xmm5
  3511. aesenc %xmm7, %xmm1
  3512. movdqa 208(%rdi), %xmm7
  3513. aesenc %xmm7, %xmm5
  3514. aesenc %xmm7, %xmm1
  3515. movdqa 224(%rdi), %xmm7
  3516. L_AES_GCM_init_aesni_calc_iv_12_last:
  3517. aesenclast %xmm7, %xmm5
  3518. aesenclast %xmm7, %xmm1
  3519. pshufb L_aes_gcm_bswap_mask(%rip), %xmm5
  3520. movdqa %xmm1, %xmm15
  3521. jmp L_AES_GCM_init_aesni_iv_done
  3522. L_AES_GCM_init_aesni_iv_not_12:
  3523. # Calculate values when IV is not 12 bytes
  3524. # H = Encrypt X(=0)
  3525. movdqa (%rdi), %xmm5
  3526. aesenc 16(%rdi), %xmm5
  3527. aesenc 32(%rdi), %xmm5
  3528. aesenc 48(%rdi), %xmm5
  3529. aesenc 64(%rdi), %xmm5
  3530. aesenc 80(%rdi), %xmm5
  3531. aesenc 96(%rdi), %xmm5
  3532. aesenc 112(%rdi), %xmm5
  3533. aesenc 128(%rdi), %xmm5
  3534. aesenc 144(%rdi), %xmm5
  3535. cmpl $11, %esi
  3536. movdqa 160(%rdi), %xmm9
  3537. jl L_AES_GCM_init_aesni_calc_iv_1_aesenc_avx_last
  3538. aesenc %xmm9, %xmm5
  3539. aesenc 176(%rdi), %xmm5
  3540. cmpl $13, %esi
  3541. movdqa 192(%rdi), %xmm9
  3542. jl L_AES_GCM_init_aesni_calc_iv_1_aesenc_avx_last
  3543. aesenc %xmm9, %xmm5
  3544. aesenc 208(%rdi), %xmm5
  3545. movdqa 224(%rdi), %xmm9
  3546. L_AES_GCM_init_aesni_calc_iv_1_aesenc_avx_last:
  3547. aesenclast %xmm9, %xmm5
  3548. pshufb L_aes_gcm_bswap_mask(%rip), %xmm5
  3549. # Calc counter
  3550. # Initialization vector
  3551. cmpl $0x00, %edx
  3552. movq $0x00, %rcx
  3553. je L_AES_GCM_init_aesni_calc_iv_done
  3554. cmpl $16, %edx
  3555. jl L_AES_GCM_init_aesni_calc_iv_lt16
  3556. andl $0xfffffff0, %edx
  3557. L_AES_GCM_init_aesni_calc_iv_16_loop:
  3558. movdqu (%r10,%rcx,1), %xmm8
  3559. pshufb L_aes_gcm_bswap_mask(%rip), %xmm8
  3560. pxor %xmm8, %xmm4
  3561. pshufd $0x4e, %xmm4, %xmm1
  3562. pshufd $0x4e, %xmm5, %xmm2
  3563. movdqa %xmm5, %xmm3
  3564. movdqa %xmm5, %xmm0
  3565. pclmulqdq $0x11, %xmm4, %xmm3
  3566. pclmulqdq $0x00, %xmm4, %xmm0
  3567. pxor %xmm4, %xmm1
  3568. pxor %xmm5, %xmm2
  3569. pclmulqdq $0x00, %xmm2, %xmm1
  3570. pxor %xmm0, %xmm1
  3571. pxor %xmm3, %xmm1
  3572. movdqa %xmm1, %xmm2
  3573. movdqa %xmm0, %xmm7
  3574. movdqa %xmm3, %xmm4
  3575. pslldq $8, %xmm2
  3576. psrldq $8, %xmm1
  3577. pxor %xmm2, %xmm7
  3578. pxor %xmm1, %xmm4
  3579. movdqa %xmm7, %xmm0
  3580. movdqa %xmm4, %xmm1
  3581. psrld $31, %xmm0
  3582. psrld $31, %xmm1
  3583. pslld $0x01, %xmm7
  3584. pslld $0x01, %xmm4
  3585. movdqa %xmm0, %xmm2
  3586. pslldq $4, %xmm0
  3587. psrldq $12, %xmm2
  3588. pslldq $4, %xmm1
  3589. por %xmm2, %xmm4
  3590. por %xmm0, %xmm7
  3591. por %xmm1, %xmm4
  3592. movdqa %xmm7, %xmm0
  3593. movdqa %xmm7, %xmm1
  3594. movdqa %xmm7, %xmm2
  3595. pslld $31, %xmm0
  3596. pslld $30, %xmm1
  3597. pslld $25, %xmm2
  3598. pxor %xmm1, %xmm0
  3599. pxor %xmm2, %xmm0
  3600. movdqa %xmm0, %xmm1
  3601. psrldq $4, %xmm1
  3602. pslldq $12, %xmm0
  3603. pxor %xmm0, %xmm7
  3604. movdqa %xmm7, %xmm2
  3605. movdqa %xmm7, %xmm3
  3606. movdqa %xmm7, %xmm0
  3607. psrld $0x01, %xmm2
  3608. psrld $2, %xmm3
  3609. psrld $7, %xmm0
  3610. pxor %xmm3, %xmm2
  3611. pxor %xmm0, %xmm2
  3612. pxor %xmm1, %xmm2
  3613. pxor %xmm7, %xmm2
  3614. pxor %xmm2, %xmm4
  3615. addl $16, %ecx
  3616. cmpl %edx, %ecx
  3617. jl L_AES_GCM_init_aesni_calc_iv_16_loop
  3618. movl %r11d, %edx
  3619. cmpl %edx, %ecx
  3620. je L_AES_GCM_init_aesni_calc_iv_done
  3621. L_AES_GCM_init_aesni_calc_iv_lt16:
  3622. subq $16, %rsp
  3623. pxor %xmm8, %xmm8
  3624. xorl %r13d, %r13d
  3625. movdqa %xmm8, (%rsp)
  3626. L_AES_GCM_init_aesni_calc_iv_loop:
  3627. movzbl (%r10,%rcx,1), %r12d
  3628. movb %r12b, (%rsp,%r13,1)
  3629. incl %ecx
  3630. incl %r13d
  3631. cmpl %edx, %ecx
  3632. jl L_AES_GCM_init_aesni_calc_iv_loop
  3633. movdqa (%rsp), %xmm8
  3634. addq $16, %rsp
  3635. pshufb L_aes_gcm_bswap_mask(%rip), %xmm8
  3636. pxor %xmm8, %xmm4
  3637. pshufd $0x4e, %xmm4, %xmm1
  3638. pshufd $0x4e, %xmm5, %xmm2
  3639. movdqa %xmm5, %xmm3
  3640. movdqa %xmm5, %xmm0
  3641. pclmulqdq $0x11, %xmm4, %xmm3
  3642. pclmulqdq $0x00, %xmm4, %xmm0
  3643. pxor %xmm4, %xmm1
  3644. pxor %xmm5, %xmm2
  3645. pclmulqdq $0x00, %xmm2, %xmm1
  3646. pxor %xmm0, %xmm1
  3647. pxor %xmm3, %xmm1
  3648. movdqa %xmm1, %xmm2
  3649. movdqa %xmm0, %xmm7
  3650. movdqa %xmm3, %xmm4
  3651. pslldq $8, %xmm2
  3652. psrldq $8, %xmm1
  3653. pxor %xmm2, %xmm7
  3654. pxor %xmm1, %xmm4
  3655. movdqa %xmm7, %xmm0
  3656. movdqa %xmm4, %xmm1
  3657. psrld $31, %xmm0
  3658. psrld $31, %xmm1
  3659. pslld $0x01, %xmm7
  3660. pslld $0x01, %xmm4
  3661. movdqa %xmm0, %xmm2
  3662. pslldq $4, %xmm0
  3663. psrldq $12, %xmm2
  3664. pslldq $4, %xmm1
  3665. por %xmm2, %xmm4
  3666. por %xmm0, %xmm7
  3667. por %xmm1, %xmm4
  3668. movdqa %xmm7, %xmm0
  3669. movdqa %xmm7, %xmm1
  3670. movdqa %xmm7, %xmm2
  3671. pslld $31, %xmm0
  3672. pslld $30, %xmm1
  3673. pslld $25, %xmm2
  3674. pxor %xmm1, %xmm0
  3675. pxor %xmm2, %xmm0
  3676. movdqa %xmm0, %xmm1
  3677. psrldq $4, %xmm1
  3678. pslldq $12, %xmm0
  3679. pxor %xmm0, %xmm7
  3680. movdqa %xmm7, %xmm2
  3681. movdqa %xmm7, %xmm3
  3682. movdqa %xmm7, %xmm0
  3683. psrld $0x01, %xmm2
  3684. psrld $2, %xmm3
  3685. psrld $7, %xmm0
  3686. pxor %xmm3, %xmm2
  3687. pxor %xmm0, %xmm2
  3688. pxor %xmm1, %xmm2
  3689. pxor %xmm7, %xmm2
  3690. pxor %xmm2, %xmm4
  3691. L_AES_GCM_init_aesni_calc_iv_done:
  3692. # T = Encrypt counter
  3693. pxor %xmm0, %xmm0
  3694. shll $3, %edx
  3695. pinsrq $0x00, %rdx, %xmm0
  3696. pxor %xmm0, %xmm4
  3697. pshufd $0x4e, %xmm4, %xmm1
  3698. pshufd $0x4e, %xmm5, %xmm2
  3699. movdqa %xmm5, %xmm3
  3700. movdqa %xmm5, %xmm0
  3701. pclmulqdq $0x11, %xmm4, %xmm3
  3702. pclmulqdq $0x00, %xmm4, %xmm0
  3703. pxor %xmm4, %xmm1
  3704. pxor %xmm5, %xmm2
  3705. pclmulqdq $0x00, %xmm2, %xmm1
  3706. pxor %xmm0, %xmm1
  3707. pxor %xmm3, %xmm1
  3708. movdqa %xmm1, %xmm2
  3709. movdqa %xmm0, %xmm7
  3710. movdqa %xmm3, %xmm4
  3711. pslldq $8, %xmm2
  3712. psrldq $8, %xmm1
  3713. pxor %xmm2, %xmm7
  3714. pxor %xmm1, %xmm4
  3715. movdqa %xmm7, %xmm0
  3716. movdqa %xmm4, %xmm1
  3717. psrld $31, %xmm0
  3718. psrld $31, %xmm1
  3719. pslld $0x01, %xmm7
  3720. pslld $0x01, %xmm4
  3721. movdqa %xmm0, %xmm2
  3722. pslldq $4, %xmm0
  3723. psrldq $12, %xmm2
  3724. pslldq $4, %xmm1
  3725. por %xmm2, %xmm4
  3726. por %xmm0, %xmm7
  3727. por %xmm1, %xmm4
  3728. movdqa %xmm7, %xmm0
  3729. movdqa %xmm7, %xmm1
  3730. movdqa %xmm7, %xmm2
  3731. pslld $31, %xmm0
  3732. pslld $30, %xmm1
  3733. pslld $25, %xmm2
  3734. pxor %xmm1, %xmm0
  3735. pxor %xmm2, %xmm0
  3736. movdqa %xmm0, %xmm1
  3737. psrldq $4, %xmm1
  3738. pslldq $12, %xmm0
  3739. pxor %xmm0, %xmm7
  3740. movdqa %xmm7, %xmm2
  3741. movdqa %xmm7, %xmm3
  3742. movdqa %xmm7, %xmm0
  3743. psrld $0x01, %xmm2
  3744. psrld $2, %xmm3
  3745. psrld $7, %xmm0
  3746. pxor %xmm3, %xmm2
  3747. pxor %xmm0, %xmm2
  3748. pxor %xmm1, %xmm2
  3749. pxor %xmm7, %xmm2
  3750. pxor %xmm2, %xmm4
  3751. pshufb L_aes_gcm_bswap_mask(%rip), %xmm4
  3752. # Encrypt counter
  3753. movdqa (%rdi), %xmm8
  3754. pxor %xmm4, %xmm8
  3755. aesenc 16(%rdi), %xmm8
  3756. aesenc 32(%rdi), %xmm8
  3757. aesenc 48(%rdi), %xmm8
  3758. aesenc 64(%rdi), %xmm8
  3759. aesenc 80(%rdi), %xmm8
  3760. aesenc 96(%rdi), %xmm8
  3761. aesenc 112(%rdi), %xmm8
  3762. aesenc 128(%rdi), %xmm8
  3763. aesenc 144(%rdi), %xmm8
  3764. cmpl $11, %esi
  3765. movdqa 160(%rdi), %xmm9
  3766. jl L_AES_GCM_init_aesni_calc_iv_2_aesenc_avx_last
  3767. aesenc %xmm9, %xmm8
  3768. aesenc 176(%rdi), %xmm8
  3769. cmpl $13, %esi
  3770. movdqa 192(%rdi), %xmm9
  3771. jl L_AES_GCM_init_aesni_calc_iv_2_aesenc_avx_last
  3772. aesenc %xmm9, %xmm8
  3773. aesenc 208(%rdi), %xmm8
  3774. movdqa 224(%rdi), %xmm9
  3775. L_AES_GCM_init_aesni_calc_iv_2_aesenc_avx_last:
  3776. aesenclast %xmm9, %xmm8
  3777. movdqa %xmm8, %xmm15
  3778. L_AES_GCM_init_aesni_iv_done:
  3779. movdqa %xmm15, (%rax)
  3780. pshufb L_aes_gcm_bswap_epi64(%rip), %xmm4
  3781. paddd L_aes_gcm_one(%rip), %xmm4
  3782. movdqa %xmm5, (%r8)
  3783. movdqa %xmm4, (%r9)
  3784. addq $16, %rsp
  3785. popq %r14
  3786. popq %r13
  3787. popq %r12
  3788. repz retq
  3789. #ifndef __APPLE__
  3790. .size AES_GCM_init_aesni,.-AES_GCM_init_aesni
  3791. #endif /* __APPLE__ */
  3792. #ifndef __APPLE__
  3793. .text
  3794. .globl AES_GCM_aad_update_aesni
  3795. .type AES_GCM_aad_update_aesni,@function
  3796. .align 16
  3797. AES_GCM_aad_update_aesni:
  3798. #else
  3799. .section __TEXT,__text
  3800. .globl _AES_GCM_aad_update_aesni
  3801. .p2align 4
  3802. _AES_GCM_aad_update_aesni:
  3803. #endif /* __APPLE__ */
  3804. movq %rcx, %rax
  3805. movdqa (%rdx), %xmm5
  3806. movdqa (%rax), %xmm6
  3807. xorl %ecx, %ecx
  3808. L_AES_GCM_aad_update_aesni_16_loop:
  3809. movdqu (%rdi,%rcx,1), %xmm8
  3810. pshufb L_aes_gcm_bswap_mask(%rip), %xmm8
  3811. pxor %xmm8, %xmm5
  3812. pshufd $0x4e, %xmm5, %xmm1
  3813. pshufd $0x4e, %xmm6, %xmm2
  3814. movdqa %xmm6, %xmm3
  3815. movdqa %xmm6, %xmm0
  3816. pclmulqdq $0x11, %xmm5, %xmm3
  3817. pclmulqdq $0x00, %xmm5, %xmm0
  3818. pxor %xmm5, %xmm1
  3819. pxor %xmm6, %xmm2
  3820. pclmulqdq $0x00, %xmm2, %xmm1
  3821. pxor %xmm0, %xmm1
  3822. pxor %xmm3, %xmm1
  3823. movdqa %xmm1, %xmm2
  3824. movdqa %xmm0, %xmm4
  3825. movdqa %xmm3, %xmm5
  3826. pslldq $8, %xmm2
  3827. psrldq $8, %xmm1
  3828. pxor %xmm2, %xmm4
  3829. pxor %xmm1, %xmm5
  3830. movdqa %xmm4, %xmm0
  3831. movdqa %xmm5, %xmm1
  3832. psrld $31, %xmm0
  3833. psrld $31, %xmm1
  3834. pslld $0x01, %xmm4
  3835. pslld $0x01, %xmm5
  3836. movdqa %xmm0, %xmm2
  3837. pslldq $4, %xmm0
  3838. psrldq $12, %xmm2
  3839. pslldq $4, %xmm1
  3840. por %xmm2, %xmm5
  3841. por %xmm0, %xmm4
  3842. por %xmm1, %xmm5
  3843. movdqa %xmm4, %xmm0
  3844. movdqa %xmm4, %xmm1
  3845. movdqa %xmm4, %xmm2
  3846. pslld $31, %xmm0
  3847. pslld $30, %xmm1
  3848. pslld $25, %xmm2
  3849. pxor %xmm1, %xmm0
  3850. pxor %xmm2, %xmm0
  3851. movdqa %xmm0, %xmm1
  3852. psrldq $4, %xmm1
  3853. pslldq $12, %xmm0
  3854. pxor %xmm0, %xmm4
  3855. movdqa %xmm4, %xmm2
  3856. movdqa %xmm4, %xmm3
  3857. movdqa %xmm4, %xmm0
  3858. psrld $0x01, %xmm2
  3859. psrld $2, %xmm3
  3860. psrld $7, %xmm0
  3861. pxor %xmm3, %xmm2
  3862. pxor %xmm0, %xmm2
  3863. pxor %xmm1, %xmm2
  3864. pxor %xmm4, %xmm2
  3865. pxor %xmm2, %xmm5
  3866. addl $16, %ecx
  3867. cmpl %esi, %ecx
  3868. jl L_AES_GCM_aad_update_aesni_16_loop
  3869. movdqa %xmm5, (%rdx)
  3870. repz retq
  3871. #ifndef __APPLE__
  3872. .size AES_GCM_aad_update_aesni,.-AES_GCM_aad_update_aesni
  3873. #endif /* __APPLE__ */
  3874. #ifndef __APPLE__
  3875. .text
  3876. .globl AES_GCM_encrypt_block_aesni
  3877. .type AES_GCM_encrypt_block_aesni,@function
  3878. .align 16
  3879. AES_GCM_encrypt_block_aesni:
  3880. #else
  3881. .section __TEXT,__text
  3882. .globl _AES_GCM_encrypt_block_aesni
  3883. .p2align 4
  3884. _AES_GCM_encrypt_block_aesni:
  3885. #endif /* __APPLE__ */
  3886. movq %rdx, %r10
  3887. movq %rcx, %r11
  3888. movdqa (%r8), %xmm8
  3889. movdqa %xmm8, %xmm9
  3890. pshufb L_aes_gcm_bswap_epi64(%rip), %xmm8
  3891. paddd L_aes_gcm_one(%rip), %xmm9
  3892. pxor (%rdi), %xmm8
  3893. movdqa %xmm9, (%r8)
  3894. aesenc 16(%rdi), %xmm8
  3895. aesenc 32(%rdi), %xmm8
  3896. aesenc 48(%rdi), %xmm8
  3897. aesenc 64(%rdi), %xmm8
  3898. aesenc 80(%rdi), %xmm8
  3899. aesenc 96(%rdi), %xmm8
  3900. aesenc 112(%rdi), %xmm8
  3901. aesenc 128(%rdi), %xmm8
  3902. aesenc 144(%rdi), %xmm8
  3903. cmpl $11, %esi
  3904. movdqa 160(%rdi), %xmm9
  3905. jl L_AES_GCM_encrypt_block_aesni_aesenc_block_aesenc_avx_last
  3906. aesenc %xmm9, %xmm8
  3907. aesenc 176(%rdi), %xmm8
  3908. cmpl $13, %esi
  3909. movdqa 192(%rdi), %xmm9
  3910. jl L_AES_GCM_encrypt_block_aesni_aesenc_block_aesenc_avx_last
  3911. aesenc %xmm9, %xmm8
  3912. aesenc 208(%rdi), %xmm8
  3913. movdqa 224(%rdi), %xmm9
  3914. L_AES_GCM_encrypt_block_aesni_aesenc_block_aesenc_avx_last:
  3915. aesenclast %xmm9, %xmm8
  3916. movdqu (%r11), %xmm9
  3917. pxor %xmm9, %xmm8
  3918. movdqu %xmm8, (%r10)
  3919. pshufb L_aes_gcm_bswap_mask(%rip), %xmm8
  3920. repz retq
  3921. #ifndef __APPLE__
  3922. .size AES_GCM_encrypt_block_aesni,.-AES_GCM_encrypt_block_aesni
  3923. #endif /* __APPLE__ */
  3924. #ifndef __APPLE__
  3925. .text
  3926. .globl AES_GCM_ghash_block_aesni
  3927. .type AES_GCM_ghash_block_aesni,@function
  3928. .align 16
  3929. AES_GCM_ghash_block_aesni:
  3930. #else
  3931. .section __TEXT,__text
  3932. .globl _AES_GCM_ghash_block_aesni
  3933. .p2align 4
  3934. _AES_GCM_ghash_block_aesni:
  3935. #endif /* __APPLE__ */
  3936. movdqa (%rsi), %xmm4
  3937. movdqa (%rdx), %xmm5
  3938. movdqu (%rdi), %xmm8
  3939. pshufb L_aes_gcm_bswap_mask(%rip), %xmm8
  3940. pxor %xmm8, %xmm4
  3941. pshufd $0x4e, %xmm4, %xmm1
  3942. pshufd $0x4e, %xmm5, %xmm2
  3943. movdqa %xmm5, %xmm3
  3944. movdqa %xmm5, %xmm0
  3945. pclmulqdq $0x11, %xmm4, %xmm3
  3946. pclmulqdq $0x00, %xmm4, %xmm0
  3947. pxor %xmm4, %xmm1
  3948. pxor %xmm5, %xmm2
  3949. pclmulqdq $0x00, %xmm2, %xmm1
  3950. pxor %xmm0, %xmm1
  3951. pxor %xmm3, %xmm1
  3952. movdqa %xmm1, %xmm2
  3953. movdqa %xmm0, %xmm6
  3954. movdqa %xmm3, %xmm4
  3955. pslldq $8, %xmm2
  3956. psrldq $8, %xmm1
  3957. pxor %xmm2, %xmm6
  3958. pxor %xmm1, %xmm4
  3959. movdqa %xmm6, %xmm0
  3960. movdqa %xmm4, %xmm1
  3961. psrld $31, %xmm0
  3962. psrld $31, %xmm1
  3963. pslld $0x01, %xmm6
  3964. pslld $0x01, %xmm4
  3965. movdqa %xmm0, %xmm2
  3966. pslldq $4, %xmm0
  3967. psrldq $12, %xmm2
  3968. pslldq $4, %xmm1
  3969. por %xmm2, %xmm4
  3970. por %xmm0, %xmm6
  3971. por %xmm1, %xmm4
  3972. movdqa %xmm6, %xmm0
  3973. movdqa %xmm6, %xmm1
  3974. movdqa %xmm6, %xmm2
  3975. pslld $31, %xmm0
  3976. pslld $30, %xmm1
  3977. pslld $25, %xmm2
  3978. pxor %xmm1, %xmm0
  3979. pxor %xmm2, %xmm0
  3980. movdqa %xmm0, %xmm1
  3981. psrldq $4, %xmm1
  3982. pslldq $12, %xmm0
  3983. pxor %xmm0, %xmm6
  3984. movdqa %xmm6, %xmm2
  3985. movdqa %xmm6, %xmm3
  3986. movdqa %xmm6, %xmm0
  3987. psrld $0x01, %xmm2
  3988. psrld $2, %xmm3
  3989. psrld $7, %xmm0
  3990. pxor %xmm3, %xmm2
  3991. pxor %xmm0, %xmm2
  3992. pxor %xmm1, %xmm2
  3993. pxor %xmm6, %xmm2
  3994. pxor %xmm2, %xmm4
  3995. movdqa %xmm4, (%rsi)
  3996. repz retq
  3997. #ifndef __APPLE__
  3998. .size AES_GCM_ghash_block_aesni,.-AES_GCM_ghash_block_aesni
  3999. #endif /* __APPLE__ */
  4000. #ifndef __APPLE__
  4001. .text
  4002. .globl AES_GCM_encrypt_update_aesni
  4003. .type AES_GCM_encrypt_update_aesni,@function
  4004. .align 16
  4005. AES_GCM_encrypt_update_aesni:
  4006. #else
  4007. .section __TEXT,__text
  4008. .globl _AES_GCM_encrypt_update_aesni
  4009. .p2align 4
  4010. _AES_GCM_encrypt_update_aesni:
  4011. #endif /* __APPLE__ */
  4012. pushq %r13
  4013. pushq %r12
  4014. pushq %r14
  4015. movq %rdx, %r10
  4016. movq %rcx, %r11
  4017. movq 32(%rsp), %rax
  4018. movq 40(%rsp), %r12
  4019. subq $0xa0, %rsp
  4020. movdqa (%r9), %xmm6
  4021. movdqa (%rax), %xmm5
  4022. movdqa %xmm5, %xmm9
  4023. movdqa %xmm5, %xmm8
  4024. psrlq $63, %xmm9
  4025. psllq $0x01, %xmm8
  4026. pslldq $8, %xmm9
  4027. por %xmm9, %xmm8
  4028. pshufd $0xff, %xmm5, %xmm5
  4029. psrad $31, %xmm5
  4030. pand L_aes_gcm_mod2_128(%rip), %xmm5
  4031. pxor %xmm8, %xmm5
  4032. xorq %r14, %r14
  4033. cmpl $0x80, %r8d
  4034. movl %r8d, %r13d
  4035. jl L_AES_GCM_encrypt_update_aesni_done_128
  4036. andl $0xffffff80, %r13d
  4037. movdqa %xmm6, %xmm2
  4038. # H ^ 1
  4039. movdqa %xmm5, (%rsp)
  4040. # H ^ 2
  4041. pshufd $0x4e, %xmm5, %xmm9
  4042. pshufd $0x4e, %xmm5, %xmm10
  4043. movdqa %xmm5, %xmm11
  4044. movdqa %xmm5, %xmm8
  4045. pclmulqdq $0x11, %xmm5, %xmm11
  4046. pclmulqdq $0x00, %xmm5, %xmm8
  4047. pxor %xmm5, %xmm9
  4048. pxor %xmm5, %xmm10
  4049. pclmulqdq $0x00, %xmm10, %xmm9
  4050. pxor %xmm8, %xmm9
  4051. pxor %xmm11, %xmm9
  4052. movdqa %xmm9, %xmm10
  4053. movdqa %xmm11, %xmm0
  4054. pslldq $8, %xmm10
  4055. psrldq $8, %xmm9
  4056. pxor %xmm10, %xmm8
  4057. pxor %xmm9, %xmm0
  4058. movdqa %xmm8, %xmm12
  4059. movdqa %xmm8, %xmm13
  4060. movdqa %xmm8, %xmm14
  4061. pslld $31, %xmm12
  4062. pslld $30, %xmm13
  4063. pslld $25, %xmm14
  4064. pxor %xmm13, %xmm12
  4065. pxor %xmm14, %xmm12
  4066. movdqa %xmm12, %xmm13
  4067. psrldq $4, %xmm13
  4068. pslldq $12, %xmm12
  4069. pxor %xmm12, %xmm8
  4070. movdqa %xmm8, %xmm14
  4071. movdqa %xmm8, %xmm10
  4072. movdqa %xmm8, %xmm9
  4073. psrld $0x01, %xmm14
  4074. psrld $2, %xmm10
  4075. psrld $7, %xmm9
  4076. pxor %xmm10, %xmm14
  4077. pxor %xmm9, %xmm14
  4078. pxor %xmm13, %xmm14
  4079. pxor %xmm8, %xmm14
  4080. pxor %xmm14, %xmm0
  4081. movdqa %xmm0, 16(%rsp)
  4082. # H ^ 3
  4083. pshufd $0x4e, %xmm5, %xmm9
  4084. pshufd $0x4e, %xmm0, %xmm10
  4085. movdqa %xmm0, %xmm11
  4086. movdqa %xmm0, %xmm8
  4087. pclmulqdq $0x11, %xmm5, %xmm11
  4088. pclmulqdq $0x00, %xmm5, %xmm8
  4089. pxor %xmm5, %xmm9
  4090. pxor %xmm0, %xmm10
  4091. pclmulqdq $0x00, %xmm10, %xmm9
  4092. pxor %xmm8, %xmm9
  4093. pxor %xmm11, %xmm9
  4094. movdqa %xmm9, %xmm10
  4095. movdqa %xmm11, %xmm1
  4096. pslldq $8, %xmm10
  4097. psrldq $8, %xmm9
  4098. pxor %xmm10, %xmm8
  4099. pxor %xmm9, %xmm1
  4100. movdqa %xmm8, %xmm12
  4101. movdqa %xmm8, %xmm13
  4102. movdqa %xmm8, %xmm14
  4103. pslld $31, %xmm12
  4104. pslld $30, %xmm13
  4105. pslld $25, %xmm14
  4106. pxor %xmm13, %xmm12
  4107. pxor %xmm14, %xmm12
  4108. movdqa %xmm12, %xmm13
  4109. psrldq $4, %xmm13
  4110. pslldq $12, %xmm12
  4111. pxor %xmm12, %xmm8
  4112. movdqa %xmm8, %xmm14
  4113. movdqa %xmm8, %xmm10
  4114. movdqa %xmm8, %xmm9
  4115. psrld $0x01, %xmm14
  4116. psrld $2, %xmm10
  4117. psrld $7, %xmm9
  4118. pxor %xmm10, %xmm14
  4119. pxor %xmm9, %xmm14
  4120. pxor %xmm13, %xmm14
  4121. pxor %xmm8, %xmm14
  4122. pxor %xmm14, %xmm1
  4123. movdqa %xmm1, 32(%rsp)
  4124. # H ^ 4
  4125. pshufd $0x4e, %xmm0, %xmm9
  4126. pshufd $0x4e, %xmm0, %xmm10
  4127. movdqa %xmm0, %xmm11
  4128. movdqa %xmm0, %xmm8
  4129. pclmulqdq $0x11, %xmm0, %xmm11
  4130. pclmulqdq $0x00, %xmm0, %xmm8
  4131. pxor %xmm0, %xmm9
  4132. pxor %xmm0, %xmm10
  4133. pclmulqdq $0x00, %xmm10, %xmm9
  4134. pxor %xmm8, %xmm9
  4135. pxor %xmm11, %xmm9
  4136. movdqa %xmm9, %xmm10
  4137. movdqa %xmm11, %xmm3
  4138. pslldq $8, %xmm10
  4139. psrldq $8, %xmm9
  4140. pxor %xmm10, %xmm8
  4141. pxor %xmm9, %xmm3
  4142. movdqa %xmm8, %xmm12
  4143. movdqa %xmm8, %xmm13
  4144. movdqa %xmm8, %xmm14
  4145. pslld $31, %xmm12
  4146. pslld $30, %xmm13
  4147. pslld $25, %xmm14
  4148. pxor %xmm13, %xmm12
  4149. pxor %xmm14, %xmm12
  4150. movdqa %xmm12, %xmm13
  4151. psrldq $4, %xmm13
  4152. pslldq $12, %xmm12
  4153. pxor %xmm12, %xmm8
  4154. movdqa %xmm8, %xmm14
  4155. movdqa %xmm8, %xmm10
  4156. movdqa %xmm8, %xmm9
  4157. psrld $0x01, %xmm14
  4158. psrld $2, %xmm10
  4159. psrld $7, %xmm9
  4160. pxor %xmm10, %xmm14
  4161. pxor %xmm9, %xmm14
  4162. pxor %xmm13, %xmm14
  4163. pxor %xmm8, %xmm14
  4164. pxor %xmm14, %xmm3
  4165. movdqa %xmm3, 48(%rsp)
  4166. # H ^ 5
  4167. pshufd $0x4e, %xmm0, %xmm9
  4168. pshufd $0x4e, %xmm1, %xmm10
  4169. movdqa %xmm1, %xmm11
  4170. movdqa %xmm1, %xmm8
  4171. pclmulqdq $0x11, %xmm0, %xmm11
  4172. pclmulqdq $0x00, %xmm0, %xmm8
  4173. pxor %xmm0, %xmm9
  4174. pxor %xmm1, %xmm10
  4175. pclmulqdq $0x00, %xmm10, %xmm9
  4176. pxor %xmm8, %xmm9
  4177. pxor %xmm11, %xmm9
  4178. movdqa %xmm9, %xmm10
  4179. movdqa %xmm11, %xmm7
  4180. pslldq $8, %xmm10
  4181. psrldq $8, %xmm9
  4182. pxor %xmm10, %xmm8
  4183. pxor %xmm9, %xmm7
  4184. movdqa %xmm8, %xmm12
  4185. movdqa %xmm8, %xmm13
  4186. movdqa %xmm8, %xmm14
  4187. pslld $31, %xmm12
  4188. pslld $30, %xmm13
  4189. pslld $25, %xmm14
  4190. pxor %xmm13, %xmm12
  4191. pxor %xmm14, %xmm12
  4192. movdqa %xmm12, %xmm13
  4193. psrldq $4, %xmm13
  4194. pslldq $12, %xmm12
  4195. pxor %xmm12, %xmm8
  4196. movdqa %xmm8, %xmm14
  4197. movdqa %xmm8, %xmm10
  4198. movdqa %xmm8, %xmm9
  4199. psrld $0x01, %xmm14
  4200. psrld $2, %xmm10
  4201. psrld $7, %xmm9
  4202. pxor %xmm10, %xmm14
  4203. pxor %xmm9, %xmm14
  4204. pxor %xmm13, %xmm14
  4205. pxor %xmm8, %xmm14
  4206. pxor %xmm14, %xmm7
  4207. movdqa %xmm7, 64(%rsp)
  4208. # H ^ 6
  4209. pshufd $0x4e, %xmm1, %xmm9
  4210. pshufd $0x4e, %xmm1, %xmm10
  4211. movdqa %xmm1, %xmm11
  4212. movdqa %xmm1, %xmm8
  4213. pclmulqdq $0x11, %xmm1, %xmm11
  4214. pclmulqdq $0x00, %xmm1, %xmm8
  4215. pxor %xmm1, %xmm9
  4216. pxor %xmm1, %xmm10
  4217. pclmulqdq $0x00, %xmm10, %xmm9
  4218. pxor %xmm8, %xmm9
  4219. pxor %xmm11, %xmm9
  4220. movdqa %xmm9, %xmm10
  4221. movdqa %xmm11, %xmm7
  4222. pslldq $8, %xmm10
  4223. psrldq $8, %xmm9
  4224. pxor %xmm10, %xmm8
  4225. pxor %xmm9, %xmm7
  4226. movdqa %xmm8, %xmm12
  4227. movdqa %xmm8, %xmm13
  4228. movdqa %xmm8, %xmm14
  4229. pslld $31, %xmm12
  4230. pslld $30, %xmm13
  4231. pslld $25, %xmm14
  4232. pxor %xmm13, %xmm12
  4233. pxor %xmm14, %xmm12
  4234. movdqa %xmm12, %xmm13
  4235. psrldq $4, %xmm13
  4236. pslldq $12, %xmm12
  4237. pxor %xmm12, %xmm8
  4238. movdqa %xmm8, %xmm14
  4239. movdqa %xmm8, %xmm10
  4240. movdqa %xmm8, %xmm9
  4241. psrld $0x01, %xmm14
  4242. psrld $2, %xmm10
  4243. psrld $7, %xmm9
  4244. pxor %xmm10, %xmm14
  4245. pxor %xmm9, %xmm14
  4246. pxor %xmm13, %xmm14
  4247. pxor %xmm8, %xmm14
  4248. pxor %xmm14, %xmm7
  4249. movdqa %xmm7, 80(%rsp)
  4250. # H ^ 7
  4251. pshufd $0x4e, %xmm1, %xmm9
  4252. pshufd $0x4e, %xmm3, %xmm10
  4253. movdqa %xmm3, %xmm11
  4254. movdqa %xmm3, %xmm8
  4255. pclmulqdq $0x11, %xmm1, %xmm11
  4256. pclmulqdq $0x00, %xmm1, %xmm8
  4257. pxor %xmm1, %xmm9
  4258. pxor %xmm3, %xmm10
  4259. pclmulqdq $0x00, %xmm10, %xmm9
  4260. pxor %xmm8, %xmm9
  4261. pxor %xmm11, %xmm9
  4262. movdqa %xmm9, %xmm10
  4263. movdqa %xmm11, %xmm7
  4264. pslldq $8, %xmm10
  4265. psrldq $8, %xmm9
  4266. pxor %xmm10, %xmm8
  4267. pxor %xmm9, %xmm7
  4268. movdqa %xmm8, %xmm12
  4269. movdqa %xmm8, %xmm13
  4270. movdqa %xmm8, %xmm14
  4271. pslld $31, %xmm12
  4272. pslld $30, %xmm13
  4273. pslld $25, %xmm14
  4274. pxor %xmm13, %xmm12
  4275. pxor %xmm14, %xmm12
  4276. movdqa %xmm12, %xmm13
  4277. psrldq $4, %xmm13
  4278. pslldq $12, %xmm12
  4279. pxor %xmm12, %xmm8
  4280. movdqa %xmm8, %xmm14
  4281. movdqa %xmm8, %xmm10
  4282. movdqa %xmm8, %xmm9
  4283. psrld $0x01, %xmm14
  4284. psrld $2, %xmm10
  4285. psrld $7, %xmm9
  4286. pxor %xmm10, %xmm14
  4287. pxor %xmm9, %xmm14
  4288. pxor %xmm13, %xmm14
  4289. pxor %xmm8, %xmm14
  4290. pxor %xmm14, %xmm7
  4291. movdqa %xmm7, 96(%rsp)
  4292. # H ^ 8
  4293. pshufd $0x4e, %xmm3, %xmm9
  4294. pshufd $0x4e, %xmm3, %xmm10
  4295. movdqa %xmm3, %xmm11
  4296. movdqa %xmm3, %xmm8
  4297. pclmulqdq $0x11, %xmm3, %xmm11
  4298. pclmulqdq $0x00, %xmm3, %xmm8
  4299. pxor %xmm3, %xmm9
  4300. pxor %xmm3, %xmm10
  4301. pclmulqdq $0x00, %xmm10, %xmm9
  4302. pxor %xmm8, %xmm9
  4303. pxor %xmm11, %xmm9
  4304. movdqa %xmm9, %xmm10
  4305. movdqa %xmm11, %xmm7
  4306. pslldq $8, %xmm10
  4307. psrldq $8, %xmm9
  4308. pxor %xmm10, %xmm8
  4309. pxor %xmm9, %xmm7
  4310. movdqa %xmm8, %xmm12
  4311. movdqa %xmm8, %xmm13
  4312. movdqa %xmm8, %xmm14
  4313. pslld $31, %xmm12
  4314. pslld $30, %xmm13
  4315. pslld $25, %xmm14
  4316. pxor %xmm13, %xmm12
  4317. pxor %xmm14, %xmm12
  4318. movdqa %xmm12, %xmm13
  4319. psrldq $4, %xmm13
  4320. pslldq $12, %xmm12
  4321. pxor %xmm12, %xmm8
  4322. movdqa %xmm8, %xmm14
  4323. movdqa %xmm8, %xmm10
  4324. movdqa %xmm8, %xmm9
  4325. psrld $0x01, %xmm14
  4326. psrld $2, %xmm10
  4327. psrld $7, %xmm9
  4328. pxor %xmm10, %xmm14
  4329. pxor %xmm9, %xmm14
  4330. pxor %xmm13, %xmm14
  4331. pxor %xmm8, %xmm14
  4332. pxor %xmm14, %xmm7
  4333. movdqa %xmm7, 112(%rsp)
  4334. # First 128 bytes of input
  4335. movdqa (%r12), %xmm8
  4336. movdqa L_aes_gcm_bswap_epi64(%rip), %xmm1
  4337. movdqa %xmm8, %xmm0
  4338. pshufb %xmm1, %xmm8
  4339. movdqa %xmm0, %xmm9
  4340. paddd L_aes_gcm_one(%rip), %xmm9
  4341. pshufb %xmm1, %xmm9
  4342. movdqa %xmm0, %xmm10
  4343. paddd L_aes_gcm_two(%rip), %xmm10
  4344. pshufb %xmm1, %xmm10
  4345. movdqa %xmm0, %xmm11
  4346. paddd L_aes_gcm_three(%rip), %xmm11
  4347. pshufb %xmm1, %xmm11
  4348. movdqa %xmm0, %xmm12
  4349. paddd L_aes_gcm_four(%rip), %xmm12
  4350. pshufb %xmm1, %xmm12
  4351. movdqa %xmm0, %xmm13
  4352. paddd L_aes_gcm_five(%rip), %xmm13
  4353. pshufb %xmm1, %xmm13
  4354. movdqa %xmm0, %xmm14
  4355. paddd L_aes_gcm_six(%rip), %xmm14
  4356. pshufb %xmm1, %xmm14
  4357. movdqa %xmm0, %xmm15
  4358. paddd L_aes_gcm_seven(%rip), %xmm15
  4359. pshufb %xmm1, %xmm15
  4360. paddd L_aes_gcm_eight(%rip), %xmm0
  4361. movdqa (%rdi), %xmm7
  4362. movdqa %xmm0, (%r12)
  4363. pxor %xmm7, %xmm8
  4364. pxor %xmm7, %xmm9
  4365. pxor %xmm7, %xmm10
  4366. pxor %xmm7, %xmm11
  4367. pxor %xmm7, %xmm12
  4368. pxor %xmm7, %xmm13
  4369. pxor %xmm7, %xmm14
  4370. pxor %xmm7, %xmm15
  4371. movdqa 16(%rdi), %xmm7
  4372. aesenc %xmm7, %xmm8
  4373. aesenc %xmm7, %xmm9
  4374. aesenc %xmm7, %xmm10
  4375. aesenc %xmm7, %xmm11
  4376. aesenc %xmm7, %xmm12
  4377. aesenc %xmm7, %xmm13
  4378. aesenc %xmm7, %xmm14
  4379. aesenc %xmm7, %xmm15
  4380. movdqa 32(%rdi), %xmm7
  4381. aesenc %xmm7, %xmm8
  4382. aesenc %xmm7, %xmm9
  4383. aesenc %xmm7, %xmm10
  4384. aesenc %xmm7, %xmm11
  4385. aesenc %xmm7, %xmm12
  4386. aesenc %xmm7, %xmm13
  4387. aesenc %xmm7, %xmm14
  4388. aesenc %xmm7, %xmm15
  4389. movdqa 48(%rdi), %xmm7
  4390. aesenc %xmm7, %xmm8
  4391. aesenc %xmm7, %xmm9
  4392. aesenc %xmm7, %xmm10
  4393. aesenc %xmm7, %xmm11
  4394. aesenc %xmm7, %xmm12
  4395. aesenc %xmm7, %xmm13
  4396. aesenc %xmm7, %xmm14
  4397. aesenc %xmm7, %xmm15
  4398. movdqa 64(%rdi), %xmm7
  4399. aesenc %xmm7, %xmm8
  4400. aesenc %xmm7, %xmm9
  4401. aesenc %xmm7, %xmm10
  4402. aesenc %xmm7, %xmm11
  4403. aesenc %xmm7, %xmm12
  4404. aesenc %xmm7, %xmm13
  4405. aesenc %xmm7, %xmm14
  4406. aesenc %xmm7, %xmm15
  4407. movdqa 80(%rdi), %xmm7
  4408. aesenc %xmm7, %xmm8
  4409. aesenc %xmm7, %xmm9
  4410. aesenc %xmm7, %xmm10
  4411. aesenc %xmm7, %xmm11
  4412. aesenc %xmm7, %xmm12
  4413. aesenc %xmm7, %xmm13
  4414. aesenc %xmm7, %xmm14
  4415. aesenc %xmm7, %xmm15
  4416. movdqa 96(%rdi), %xmm7
  4417. aesenc %xmm7, %xmm8
  4418. aesenc %xmm7, %xmm9
  4419. aesenc %xmm7, %xmm10
  4420. aesenc %xmm7, %xmm11
  4421. aesenc %xmm7, %xmm12
  4422. aesenc %xmm7, %xmm13
  4423. aesenc %xmm7, %xmm14
  4424. aesenc %xmm7, %xmm15
  4425. movdqa 112(%rdi), %xmm7
  4426. aesenc %xmm7, %xmm8
  4427. aesenc %xmm7, %xmm9
  4428. aesenc %xmm7, %xmm10
  4429. aesenc %xmm7, %xmm11
  4430. aesenc %xmm7, %xmm12
  4431. aesenc %xmm7, %xmm13
  4432. aesenc %xmm7, %xmm14
  4433. aesenc %xmm7, %xmm15
  4434. movdqa 128(%rdi), %xmm7
  4435. aesenc %xmm7, %xmm8
  4436. aesenc %xmm7, %xmm9
  4437. aesenc %xmm7, %xmm10
  4438. aesenc %xmm7, %xmm11
  4439. aesenc %xmm7, %xmm12
  4440. aesenc %xmm7, %xmm13
  4441. aesenc %xmm7, %xmm14
  4442. aesenc %xmm7, %xmm15
  4443. movdqa 144(%rdi), %xmm7
  4444. aesenc %xmm7, %xmm8
  4445. aesenc %xmm7, %xmm9
  4446. aesenc %xmm7, %xmm10
  4447. aesenc %xmm7, %xmm11
  4448. aesenc %xmm7, %xmm12
  4449. aesenc %xmm7, %xmm13
  4450. aesenc %xmm7, %xmm14
  4451. aesenc %xmm7, %xmm15
  4452. cmpl $11, %esi
  4453. movdqa 160(%rdi), %xmm7
  4454. jl L_AES_GCM_encrypt_update_aesni_enc_done
  4455. aesenc %xmm7, %xmm8
  4456. aesenc %xmm7, %xmm9
  4457. aesenc %xmm7, %xmm10
  4458. aesenc %xmm7, %xmm11
  4459. aesenc %xmm7, %xmm12
  4460. aesenc %xmm7, %xmm13
  4461. aesenc %xmm7, %xmm14
  4462. aesenc %xmm7, %xmm15
  4463. movdqa 176(%rdi), %xmm7
  4464. aesenc %xmm7, %xmm8
  4465. aesenc %xmm7, %xmm9
  4466. aesenc %xmm7, %xmm10
  4467. aesenc %xmm7, %xmm11
  4468. aesenc %xmm7, %xmm12
  4469. aesenc %xmm7, %xmm13
  4470. aesenc %xmm7, %xmm14
  4471. aesenc %xmm7, %xmm15
  4472. cmpl $13, %esi
  4473. movdqa 192(%rdi), %xmm7
  4474. jl L_AES_GCM_encrypt_update_aesni_enc_done
  4475. aesenc %xmm7, %xmm8
  4476. aesenc %xmm7, %xmm9
  4477. aesenc %xmm7, %xmm10
  4478. aesenc %xmm7, %xmm11
  4479. aesenc %xmm7, %xmm12
  4480. aesenc %xmm7, %xmm13
  4481. aesenc %xmm7, %xmm14
  4482. aesenc %xmm7, %xmm15
  4483. movdqa 208(%rdi), %xmm7
  4484. aesenc %xmm7, %xmm8
  4485. aesenc %xmm7, %xmm9
  4486. aesenc %xmm7, %xmm10
  4487. aesenc %xmm7, %xmm11
  4488. aesenc %xmm7, %xmm12
  4489. aesenc %xmm7, %xmm13
  4490. aesenc %xmm7, %xmm14
  4491. aesenc %xmm7, %xmm15
  4492. movdqa 224(%rdi), %xmm7
  4493. L_AES_GCM_encrypt_update_aesni_enc_done:
  4494. aesenclast %xmm7, %xmm8
  4495. aesenclast %xmm7, %xmm9
  4496. movdqu (%r11), %xmm0
  4497. movdqu 16(%r11), %xmm1
  4498. pxor %xmm0, %xmm8
  4499. pxor %xmm1, %xmm9
  4500. movdqu %xmm8, (%r10)
  4501. movdqu %xmm9, 16(%r10)
  4502. aesenclast %xmm7, %xmm10
  4503. aesenclast %xmm7, %xmm11
  4504. movdqu 32(%r11), %xmm0
  4505. movdqu 48(%r11), %xmm1
  4506. pxor %xmm0, %xmm10
  4507. pxor %xmm1, %xmm11
  4508. movdqu %xmm10, 32(%r10)
  4509. movdqu %xmm11, 48(%r10)
  4510. aesenclast %xmm7, %xmm12
  4511. aesenclast %xmm7, %xmm13
  4512. movdqu 64(%r11), %xmm0
  4513. movdqu 80(%r11), %xmm1
  4514. pxor %xmm0, %xmm12
  4515. pxor %xmm1, %xmm13
  4516. movdqu %xmm12, 64(%r10)
  4517. movdqu %xmm13, 80(%r10)
  4518. aesenclast %xmm7, %xmm14
  4519. aesenclast %xmm7, %xmm15
  4520. movdqu 96(%r11), %xmm0
  4521. movdqu 112(%r11), %xmm1
  4522. pxor %xmm0, %xmm14
  4523. pxor %xmm1, %xmm15
  4524. movdqu %xmm14, 96(%r10)
  4525. movdqu %xmm15, 112(%r10)
  4526. cmpl $0x80, %r13d
  4527. movl $0x80, %r14d
  4528. jle L_AES_GCM_encrypt_update_aesni_end_128
  4529. # More 128 bytes of input
  4530. L_AES_GCM_encrypt_update_aesni_ghash_128:
  4531. leaq (%r11,%r14,1), %rcx
  4532. leaq (%r10,%r14,1), %rdx
  4533. movdqa (%r12), %xmm8
  4534. movdqa L_aes_gcm_bswap_epi64(%rip), %xmm1
  4535. movdqa %xmm8, %xmm0
  4536. pshufb %xmm1, %xmm8
  4537. movdqa %xmm0, %xmm9
  4538. paddd L_aes_gcm_one(%rip), %xmm9
  4539. pshufb %xmm1, %xmm9
  4540. movdqa %xmm0, %xmm10
  4541. paddd L_aes_gcm_two(%rip), %xmm10
  4542. pshufb %xmm1, %xmm10
  4543. movdqa %xmm0, %xmm11
  4544. paddd L_aes_gcm_three(%rip), %xmm11
  4545. pshufb %xmm1, %xmm11
  4546. movdqa %xmm0, %xmm12
  4547. paddd L_aes_gcm_four(%rip), %xmm12
  4548. pshufb %xmm1, %xmm12
  4549. movdqa %xmm0, %xmm13
  4550. paddd L_aes_gcm_five(%rip), %xmm13
  4551. pshufb %xmm1, %xmm13
  4552. movdqa %xmm0, %xmm14
  4553. paddd L_aes_gcm_six(%rip), %xmm14
  4554. pshufb %xmm1, %xmm14
  4555. movdqa %xmm0, %xmm15
  4556. paddd L_aes_gcm_seven(%rip), %xmm15
  4557. pshufb %xmm1, %xmm15
  4558. paddd L_aes_gcm_eight(%rip), %xmm0
  4559. movdqa (%rdi), %xmm7
  4560. movdqa %xmm0, (%r12)
  4561. pxor %xmm7, %xmm8
  4562. pxor %xmm7, %xmm9
  4563. pxor %xmm7, %xmm10
  4564. pxor %xmm7, %xmm11
  4565. pxor %xmm7, %xmm12
  4566. pxor %xmm7, %xmm13
  4567. pxor %xmm7, %xmm14
  4568. pxor %xmm7, %xmm15
  4569. movdqa 112(%rsp), %xmm7
  4570. movdqu -128(%rdx), %xmm0
  4571. aesenc 16(%rdi), %xmm8
  4572. pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
  4573. pxor %xmm2, %xmm0
  4574. pshufd $0x4e, %xmm7, %xmm1
  4575. pshufd $0x4e, %xmm0, %xmm5
  4576. pxor %xmm7, %xmm1
  4577. pxor %xmm0, %xmm5
  4578. movdqa %xmm0, %xmm3
  4579. pclmulqdq $0x11, %xmm7, %xmm3
  4580. aesenc 16(%rdi), %xmm9
  4581. aesenc 16(%rdi), %xmm10
  4582. movdqa %xmm0, %xmm2
  4583. pclmulqdq $0x00, %xmm7, %xmm2
  4584. aesenc 16(%rdi), %xmm11
  4585. aesenc 16(%rdi), %xmm12
  4586. pclmulqdq $0x00, %xmm5, %xmm1
  4587. aesenc 16(%rdi), %xmm13
  4588. aesenc 16(%rdi), %xmm14
  4589. aesenc 16(%rdi), %xmm15
  4590. pxor %xmm2, %xmm1
  4591. pxor %xmm3, %xmm1
  4592. movdqa 96(%rsp), %xmm7
  4593. movdqu -112(%rdx), %xmm0
  4594. pshufd $0x4e, %xmm7, %xmm4
  4595. pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
  4596. aesenc 32(%rdi), %xmm8
  4597. pxor %xmm7, %xmm4
  4598. pshufd $0x4e, %xmm0, %xmm5
  4599. pxor %xmm0, %xmm5
  4600. movdqa %xmm0, %xmm6
  4601. pclmulqdq $0x11, %xmm7, %xmm6
  4602. aesenc 32(%rdi), %xmm9
  4603. aesenc 32(%rdi), %xmm10
  4604. pclmulqdq $0x00, %xmm0, %xmm7
  4605. aesenc 32(%rdi), %xmm11
  4606. aesenc 32(%rdi), %xmm12
  4607. pclmulqdq $0x00, %xmm5, %xmm4
  4608. aesenc 32(%rdi), %xmm13
  4609. aesenc 32(%rdi), %xmm14
  4610. aesenc 32(%rdi), %xmm15
  4611. pxor %xmm7, %xmm1
  4612. pxor %xmm7, %xmm2
  4613. pxor %xmm6, %xmm1
  4614. pxor %xmm6, %xmm3
  4615. pxor %xmm4, %xmm1
  4616. movdqa 80(%rsp), %xmm7
  4617. movdqu -96(%rdx), %xmm0
  4618. pshufd $0x4e, %xmm7, %xmm4
  4619. pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
  4620. aesenc 48(%rdi), %xmm8
  4621. pxor %xmm7, %xmm4
  4622. pshufd $0x4e, %xmm0, %xmm5
  4623. pxor %xmm0, %xmm5
  4624. movdqa %xmm0, %xmm6
  4625. pclmulqdq $0x11, %xmm7, %xmm6
  4626. aesenc 48(%rdi), %xmm9
  4627. aesenc 48(%rdi), %xmm10
  4628. pclmulqdq $0x00, %xmm0, %xmm7
  4629. aesenc 48(%rdi), %xmm11
  4630. aesenc 48(%rdi), %xmm12
  4631. pclmulqdq $0x00, %xmm5, %xmm4
  4632. aesenc 48(%rdi), %xmm13
  4633. aesenc 48(%rdi), %xmm14
  4634. aesenc 48(%rdi), %xmm15
  4635. pxor %xmm7, %xmm1
  4636. pxor %xmm7, %xmm2
  4637. pxor %xmm6, %xmm1
  4638. pxor %xmm6, %xmm3
  4639. pxor %xmm4, %xmm1
  4640. movdqa 64(%rsp), %xmm7
  4641. movdqu -80(%rdx), %xmm0
  4642. pshufd $0x4e, %xmm7, %xmm4
  4643. pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
  4644. aesenc 64(%rdi), %xmm8
  4645. pxor %xmm7, %xmm4
  4646. pshufd $0x4e, %xmm0, %xmm5
  4647. pxor %xmm0, %xmm5
  4648. movdqa %xmm0, %xmm6
  4649. pclmulqdq $0x11, %xmm7, %xmm6
  4650. aesenc 64(%rdi), %xmm9
  4651. aesenc 64(%rdi), %xmm10
  4652. pclmulqdq $0x00, %xmm0, %xmm7
  4653. aesenc 64(%rdi), %xmm11
  4654. aesenc 64(%rdi), %xmm12
  4655. pclmulqdq $0x00, %xmm5, %xmm4
  4656. aesenc 64(%rdi), %xmm13
  4657. aesenc 64(%rdi), %xmm14
  4658. aesenc 64(%rdi), %xmm15
  4659. pxor %xmm7, %xmm1
  4660. pxor %xmm7, %xmm2
  4661. pxor %xmm6, %xmm1
  4662. pxor %xmm6, %xmm3
  4663. pxor %xmm4, %xmm1
  4664. movdqa 48(%rsp), %xmm7
  4665. movdqu -64(%rdx), %xmm0
  4666. pshufd $0x4e, %xmm7, %xmm4
  4667. pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
  4668. aesenc 80(%rdi), %xmm8
  4669. pxor %xmm7, %xmm4
  4670. pshufd $0x4e, %xmm0, %xmm5
  4671. pxor %xmm0, %xmm5
  4672. movdqa %xmm0, %xmm6
  4673. pclmulqdq $0x11, %xmm7, %xmm6
  4674. aesenc 80(%rdi), %xmm9
  4675. aesenc 80(%rdi), %xmm10
  4676. pclmulqdq $0x00, %xmm0, %xmm7
  4677. aesenc 80(%rdi), %xmm11
  4678. aesenc 80(%rdi), %xmm12
  4679. pclmulqdq $0x00, %xmm5, %xmm4
  4680. aesenc 80(%rdi), %xmm13
  4681. aesenc 80(%rdi), %xmm14
  4682. aesenc 80(%rdi), %xmm15
  4683. pxor %xmm7, %xmm1
  4684. pxor %xmm7, %xmm2
  4685. pxor %xmm6, %xmm1
  4686. pxor %xmm6, %xmm3
  4687. pxor %xmm4, %xmm1
  4688. movdqa 32(%rsp), %xmm7
  4689. movdqu -48(%rdx), %xmm0
  4690. pshufd $0x4e, %xmm7, %xmm4
  4691. pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
  4692. aesenc 96(%rdi), %xmm8
  4693. pxor %xmm7, %xmm4
  4694. pshufd $0x4e, %xmm0, %xmm5
  4695. pxor %xmm0, %xmm5
  4696. movdqa %xmm0, %xmm6
  4697. pclmulqdq $0x11, %xmm7, %xmm6
  4698. aesenc 96(%rdi), %xmm9
  4699. aesenc 96(%rdi), %xmm10
  4700. pclmulqdq $0x00, %xmm0, %xmm7
  4701. aesenc 96(%rdi), %xmm11
  4702. aesenc 96(%rdi), %xmm12
  4703. pclmulqdq $0x00, %xmm5, %xmm4
  4704. aesenc 96(%rdi), %xmm13
  4705. aesenc 96(%rdi), %xmm14
  4706. aesenc 96(%rdi), %xmm15
  4707. pxor %xmm7, %xmm1
  4708. pxor %xmm7, %xmm2
  4709. pxor %xmm6, %xmm1
  4710. pxor %xmm6, %xmm3
  4711. pxor %xmm4, %xmm1
  4712. movdqa 16(%rsp), %xmm7
  4713. movdqu -32(%rdx), %xmm0
  4714. pshufd $0x4e, %xmm7, %xmm4
  4715. pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
  4716. aesenc 112(%rdi), %xmm8
  4717. pxor %xmm7, %xmm4
  4718. pshufd $0x4e, %xmm0, %xmm5
  4719. pxor %xmm0, %xmm5
  4720. movdqa %xmm0, %xmm6
  4721. pclmulqdq $0x11, %xmm7, %xmm6
  4722. aesenc 112(%rdi), %xmm9
  4723. aesenc 112(%rdi), %xmm10
  4724. pclmulqdq $0x00, %xmm0, %xmm7
  4725. aesenc 112(%rdi), %xmm11
  4726. aesenc 112(%rdi), %xmm12
  4727. pclmulqdq $0x00, %xmm5, %xmm4
  4728. aesenc 112(%rdi), %xmm13
  4729. aesenc 112(%rdi), %xmm14
  4730. aesenc 112(%rdi), %xmm15
  4731. pxor %xmm7, %xmm1
  4732. pxor %xmm7, %xmm2
  4733. pxor %xmm6, %xmm1
  4734. pxor %xmm6, %xmm3
  4735. pxor %xmm4, %xmm1
  4736. movdqa (%rsp), %xmm7
  4737. movdqu -16(%rdx), %xmm0
  4738. pshufd $0x4e, %xmm7, %xmm4
  4739. pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
  4740. aesenc 128(%rdi), %xmm8
  4741. pxor %xmm7, %xmm4
  4742. pshufd $0x4e, %xmm0, %xmm5
  4743. pxor %xmm0, %xmm5
  4744. movdqa %xmm0, %xmm6
  4745. pclmulqdq $0x11, %xmm7, %xmm6
  4746. aesenc 128(%rdi), %xmm9
  4747. aesenc 128(%rdi), %xmm10
  4748. pclmulqdq $0x00, %xmm0, %xmm7
  4749. aesenc 128(%rdi), %xmm11
  4750. aesenc 128(%rdi), %xmm12
  4751. pclmulqdq $0x00, %xmm5, %xmm4
  4752. aesenc 128(%rdi), %xmm13
  4753. aesenc 128(%rdi), %xmm14
  4754. aesenc 128(%rdi), %xmm15
  4755. pxor %xmm7, %xmm1
  4756. pxor %xmm7, %xmm2
  4757. pxor %xmm6, %xmm1
  4758. pxor %xmm6, %xmm3
  4759. pxor %xmm4, %xmm1
  4760. movdqa %xmm1, %xmm5
  4761. psrldq $8, %xmm1
  4762. pslldq $8, %xmm5
  4763. aesenc 144(%rdi), %xmm8
  4764. pxor %xmm5, %xmm2
  4765. pxor %xmm1, %xmm3
  4766. movdqa %xmm2, %xmm7
  4767. movdqa %xmm2, %xmm4
  4768. movdqa %xmm2, %xmm5
  4769. aesenc 144(%rdi), %xmm9
  4770. pslld $31, %xmm7
  4771. pslld $30, %xmm4
  4772. pslld $25, %xmm5
  4773. aesenc 144(%rdi), %xmm10
  4774. pxor %xmm4, %xmm7
  4775. pxor %xmm5, %xmm7
  4776. aesenc 144(%rdi), %xmm11
  4777. movdqa %xmm7, %xmm4
  4778. pslldq $12, %xmm7
  4779. psrldq $4, %xmm4
  4780. aesenc 144(%rdi), %xmm12
  4781. pxor %xmm7, %xmm2
  4782. movdqa %xmm2, %xmm5
  4783. movdqa %xmm2, %xmm1
  4784. movdqa %xmm2, %xmm0
  4785. aesenc 144(%rdi), %xmm13
  4786. psrld $0x01, %xmm5
  4787. psrld $2, %xmm1
  4788. psrld $7, %xmm0
  4789. aesenc 144(%rdi), %xmm14
  4790. pxor %xmm1, %xmm5
  4791. pxor %xmm0, %xmm5
  4792. aesenc 144(%rdi), %xmm15
  4793. pxor %xmm4, %xmm5
  4794. pxor %xmm5, %xmm2
  4795. pxor %xmm3, %xmm2
  4796. cmpl $11, %esi
  4797. movdqa 160(%rdi), %xmm7
  4798. jl L_AES_GCM_encrypt_update_aesni_aesenc_128_ghash_avx_done
  4799. aesenc %xmm7, %xmm8
  4800. aesenc %xmm7, %xmm9
  4801. aesenc %xmm7, %xmm10
  4802. aesenc %xmm7, %xmm11
  4803. aesenc %xmm7, %xmm12
  4804. aesenc %xmm7, %xmm13
  4805. aesenc %xmm7, %xmm14
  4806. aesenc %xmm7, %xmm15
  4807. movdqa 176(%rdi), %xmm7
  4808. aesenc %xmm7, %xmm8
  4809. aesenc %xmm7, %xmm9
  4810. aesenc %xmm7, %xmm10
  4811. aesenc %xmm7, %xmm11
  4812. aesenc %xmm7, %xmm12
  4813. aesenc %xmm7, %xmm13
  4814. aesenc %xmm7, %xmm14
  4815. aesenc %xmm7, %xmm15
  4816. cmpl $13, %esi
  4817. movdqa 192(%rdi), %xmm7
  4818. jl L_AES_GCM_encrypt_update_aesni_aesenc_128_ghash_avx_done
  4819. aesenc %xmm7, %xmm8
  4820. aesenc %xmm7, %xmm9
  4821. aesenc %xmm7, %xmm10
  4822. aesenc %xmm7, %xmm11
  4823. aesenc %xmm7, %xmm12
  4824. aesenc %xmm7, %xmm13
  4825. aesenc %xmm7, %xmm14
  4826. aesenc %xmm7, %xmm15
  4827. movdqa 208(%rdi), %xmm7
  4828. aesenc %xmm7, %xmm8
  4829. aesenc %xmm7, %xmm9
  4830. aesenc %xmm7, %xmm10
  4831. aesenc %xmm7, %xmm11
  4832. aesenc %xmm7, %xmm12
  4833. aesenc %xmm7, %xmm13
  4834. aesenc %xmm7, %xmm14
  4835. aesenc %xmm7, %xmm15
  4836. movdqa 224(%rdi), %xmm7
  4837. L_AES_GCM_encrypt_update_aesni_aesenc_128_ghash_avx_done:
  4838. aesenclast %xmm7, %xmm8
  4839. aesenclast %xmm7, %xmm9
  4840. movdqu (%rcx), %xmm0
  4841. movdqu 16(%rcx), %xmm1
  4842. pxor %xmm0, %xmm8
  4843. pxor %xmm1, %xmm9
  4844. movdqu %xmm8, (%rdx)
  4845. movdqu %xmm9, 16(%rdx)
  4846. aesenclast %xmm7, %xmm10
  4847. aesenclast %xmm7, %xmm11
  4848. movdqu 32(%rcx), %xmm0
  4849. movdqu 48(%rcx), %xmm1
  4850. pxor %xmm0, %xmm10
  4851. pxor %xmm1, %xmm11
  4852. movdqu %xmm10, 32(%rdx)
  4853. movdqu %xmm11, 48(%rdx)
  4854. aesenclast %xmm7, %xmm12
  4855. aesenclast %xmm7, %xmm13
  4856. movdqu 64(%rcx), %xmm0
  4857. movdqu 80(%rcx), %xmm1
  4858. pxor %xmm0, %xmm12
  4859. pxor %xmm1, %xmm13
  4860. movdqu %xmm12, 64(%rdx)
  4861. movdqu %xmm13, 80(%rdx)
  4862. aesenclast %xmm7, %xmm14
  4863. aesenclast %xmm7, %xmm15
  4864. movdqu 96(%rcx), %xmm0
  4865. movdqu 112(%rcx), %xmm1
  4866. pxor %xmm0, %xmm14
  4867. pxor %xmm1, %xmm15
  4868. movdqu %xmm14, 96(%rdx)
  4869. movdqu %xmm15, 112(%rdx)
  4870. addl $0x80, %r14d
  4871. cmpl %r13d, %r14d
  4872. jl L_AES_GCM_encrypt_update_aesni_ghash_128
  4873. L_AES_GCM_encrypt_update_aesni_end_128:
  4874. movdqa L_aes_gcm_bswap_mask(%rip), %xmm4
  4875. pshufb %xmm4, %xmm8
  4876. pshufb %xmm4, %xmm9
  4877. pshufb %xmm4, %xmm10
  4878. pshufb %xmm4, %xmm11
  4879. pxor %xmm2, %xmm8
  4880. pshufb %xmm4, %xmm12
  4881. pshufb %xmm4, %xmm13
  4882. pshufb %xmm4, %xmm14
  4883. pshufb %xmm4, %xmm15
  4884. movdqa 112(%rsp), %xmm7
  4885. pshufd $0x4e, %xmm8, %xmm1
  4886. pshufd $0x4e, %xmm7, %xmm2
  4887. movdqa %xmm7, %xmm3
  4888. movdqa %xmm7, %xmm0
  4889. pclmulqdq $0x11, %xmm8, %xmm3
  4890. pclmulqdq $0x00, %xmm8, %xmm0
  4891. pxor %xmm8, %xmm1
  4892. pxor %xmm7, %xmm2
  4893. pclmulqdq $0x00, %xmm2, %xmm1
  4894. pxor %xmm0, %xmm1
  4895. pxor %xmm3, %xmm1
  4896. movdqa %xmm1, %xmm2
  4897. movdqa %xmm0, %xmm4
  4898. movdqa %xmm3, %xmm6
  4899. pslldq $8, %xmm2
  4900. psrldq $8, %xmm1
  4901. pxor %xmm2, %xmm4
  4902. pxor %xmm1, %xmm6
  4903. movdqa 96(%rsp), %xmm7
  4904. pshufd $0x4e, %xmm9, %xmm1
  4905. pshufd $0x4e, %xmm7, %xmm2
  4906. movdqa %xmm7, %xmm3
  4907. movdqa %xmm7, %xmm0
  4908. pclmulqdq $0x11, %xmm9, %xmm3
  4909. pclmulqdq $0x00, %xmm9, %xmm0
  4910. pxor %xmm9, %xmm1
  4911. pxor %xmm7, %xmm2
  4912. pclmulqdq $0x00, %xmm2, %xmm1
  4913. pxor %xmm0, %xmm1
  4914. pxor %xmm3, %xmm1
  4915. movdqa %xmm1, %xmm2
  4916. pxor %xmm0, %xmm4
  4917. pxor %xmm3, %xmm6
  4918. pslldq $8, %xmm2
  4919. psrldq $8, %xmm1
  4920. pxor %xmm2, %xmm4
  4921. pxor %xmm1, %xmm6
  4922. movdqa 80(%rsp), %xmm7
  4923. pshufd $0x4e, %xmm10, %xmm1
  4924. pshufd $0x4e, %xmm7, %xmm2
  4925. movdqa %xmm7, %xmm3
  4926. movdqa %xmm7, %xmm0
  4927. pclmulqdq $0x11, %xmm10, %xmm3
  4928. pclmulqdq $0x00, %xmm10, %xmm0
  4929. pxor %xmm10, %xmm1
  4930. pxor %xmm7, %xmm2
  4931. pclmulqdq $0x00, %xmm2, %xmm1
  4932. pxor %xmm0, %xmm1
  4933. pxor %xmm3, %xmm1
  4934. movdqa %xmm1, %xmm2
  4935. pxor %xmm0, %xmm4
  4936. pxor %xmm3, %xmm6
  4937. pslldq $8, %xmm2
  4938. psrldq $8, %xmm1
  4939. pxor %xmm2, %xmm4
  4940. pxor %xmm1, %xmm6
  4941. movdqa 64(%rsp), %xmm7
  4942. pshufd $0x4e, %xmm11, %xmm1
  4943. pshufd $0x4e, %xmm7, %xmm2
  4944. movdqa %xmm7, %xmm3
  4945. movdqa %xmm7, %xmm0
  4946. pclmulqdq $0x11, %xmm11, %xmm3
  4947. pclmulqdq $0x00, %xmm11, %xmm0
  4948. pxor %xmm11, %xmm1
  4949. pxor %xmm7, %xmm2
  4950. pclmulqdq $0x00, %xmm2, %xmm1
  4951. pxor %xmm0, %xmm1
  4952. pxor %xmm3, %xmm1
  4953. movdqa %xmm1, %xmm2
  4954. pxor %xmm0, %xmm4
  4955. pxor %xmm3, %xmm6
  4956. pslldq $8, %xmm2
  4957. psrldq $8, %xmm1
  4958. pxor %xmm2, %xmm4
  4959. pxor %xmm1, %xmm6
  4960. movdqa 48(%rsp), %xmm7
  4961. pshufd $0x4e, %xmm12, %xmm1
  4962. pshufd $0x4e, %xmm7, %xmm2
  4963. movdqa %xmm7, %xmm3
  4964. movdqa %xmm7, %xmm0
  4965. pclmulqdq $0x11, %xmm12, %xmm3
  4966. pclmulqdq $0x00, %xmm12, %xmm0
  4967. pxor %xmm12, %xmm1
  4968. pxor %xmm7, %xmm2
  4969. pclmulqdq $0x00, %xmm2, %xmm1
  4970. pxor %xmm0, %xmm1
  4971. pxor %xmm3, %xmm1
  4972. movdqa %xmm1, %xmm2
  4973. pxor %xmm0, %xmm4
  4974. pxor %xmm3, %xmm6
  4975. pslldq $8, %xmm2
  4976. psrldq $8, %xmm1
  4977. pxor %xmm2, %xmm4
  4978. pxor %xmm1, %xmm6
  4979. movdqa 32(%rsp), %xmm7
  4980. pshufd $0x4e, %xmm13, %xmm1
  4981. pshufd $0x4e, %xmm7, %xmm2
  4982. movdqa %xmm7, %xmm3
  4983. movdqa %xmm7, %xmm0
  4984. pclmulqdq $0x11, %xmm13, %xmm3
  4985. pclmulqdq $0x00, %xmm13, %xmm0
  4986. pxor %xmm13, %xmm1
  4987. pxor %xmm7, %xmm2
  4988. pclmulqdq $0x00, %xmm2, %xmm1
  4989. pxor %xmm0, %xmm1
  4990. pxor %xmm3, %xmm1
  4991. movdqa %xmm1, %xmm2
  4992. pxor %xmm0, %xmm4
  4993. pxor %xmm3, %xmm6
  4994. pslldq $8, %xmm2
  4995. psrldq $8, %xmm1
  4996. pxor %xmm2, %xmm4
  4997. pxor %xmm1, %xmm6
  4998. movdqa 16(%rsp), %xmm7
  4999. pshufd $0x4e, %xmm14, %xmm1
  5000. pshufd $0x4e, %xmm7, %xmm2
  5001. movdqa %xmm7, %xmm3
  5002. movdqa %xmm7, %xmm0
  5003. pclmulqdq $0x11, %xmm14, %xmm3
  5004. pclmulqdq $0x00, %xmm14, %xmm0
  5005. pxor %xmm14, %xmm1
  5006. pxor %xmm7, %xmm2
  5007. pclmulqdq $0x00, %xmm2, %xmm1
  5008. pxor %xmm0, %xmm1
  5009. pxor %xmm3, %xmm1
  5010. movdqa %xmm1, %xmm2
  5011. pxor %xmm0, %xmm4
  5012. pxor %xmm3, %xmm6
  5013. pslldq $8, %xmm2
  5014. psrldq $8, %xmm1
  5015. pxor %xmm2, %xmm4
  5016. pxor %xmm1, %xmm6
  5017. movdqa (%rsp), %xmm7
  5018. pshufd $0x4e, %xmm15, %xmm1
  5019. pshufd $0x4e, %xmm7, %xmm2
  5020. movdqa %xmm7, %xmm3
  5021. movdqa %xmm7, %xmm0
  5022. pclmulqdq $0x11, %xmm15, %xmm3
  5023. pclmulqdq $0x00, %xmm15, %xmm0
  5024. pxor %xmm15, %xmm1
  5025. pxor %xmm7, %xmm2
  5026. pclmulqdq $0x00, %xmm2, %xmm1
  5027. pxor %xmm0, %xmm1
  5028. pxor %xmm3, %xmm1
  5029. movdqa %xmm1, %xmm2
  5030. pxor %xmm0, %xmm4
  5031. pxor %xmm3, %xmm6
  5032. pslldq $8, %xmm2
  5033. psrldq $8, %xmm1
  5034. pxor %xmm2, %xmm4
  5035. pxor %xmm1, %xmm6
  5036. movdqa %xmm4, %xmm0
  5037. movdqa %xmm4, %xmm1
  5038. movdqa %xmm4, %xmm2
  5039. pslld $31, %xmm0
  5040. pslld $30, %xmm1
  5041. pslld $25, %xmm2
  5042. pxor %xmm1, %xmm0
  5043. pxor %xmm2, %xmm0
  5044. movdqa %xmm0, %xmm1
  5045. psrldq $4, %xmm1
  5046. pslldq $12, %xmm0
  5047. pxor %xmm0, %xmm4
  5048. movdqa %xmm4, %xmm2
  5049. movdqa %xmm4, %xmm3
  5050. movdqa %xmm4, %xmm0
  5051. psrld $0x01, %xmm2
  5052. psrld $2, %xmm3
  5053. psrld $7, %xmm0
  5054. pxor %xmm3, %xmm2
  5055. pxor %xmm0, %xmm2
  5056. pxor %xmm1, %xmm2
  5057. pxor %xmm4, %xmm2
  5058. pxor %xmm2, %xmm6
  5059. movdqa (%rsp), %xmm5
  5060. L_AES_GCM_encrypt_update_aesni_done_128:
  5061. movl %r8d, %edx
  5062. cmpl %edx, %r14d
  5063. jge L_AES_GCM_encrypt_update_aesni_done_enc
  5064. movl %r8d, %r13d
  5065. andl $0xfffffff0, %r13d
  5066. cmpl %r13d, %r14d
  5067. jge L_AES_GCM_encrypt_update_aesni_last_block_done
  5068. leaq (%r11,%r14,1), %rcx
  5069. leaq (%r10,%r14,1), %rdx
  5070. movdqa (%r12), %xmm8
  5071. movdqa %xmm8, %xmm9
  5072. pshufb L_aes_gcm_bswap_epi64(%rip), %xmm8
  5073. paddd L_aes_gcm_one(%rip), %xmm9
  5074. pxor (%rdi), %xmm8
  5075. movdqa %xmm9, (%r12)
  5076. aesenc 16(%rdi), %xmm8
  5077. aesenc 32(%rdi), %xmm8
  5078. aesenc 48(%rdi), %xmm8
  5079. aesenc 64(%rdi), %xmm8
  5080. aesenc 80(%rdi), %xmm8
  5081. aesenc 96(%rdi), %xmm8
  5082. aesenc 112(%rdi), %xmm8
  5083. aesenc 128(%rdi), %xmm8
  5084. aesenc 144(%rdi), %xmm8
  5085. cmpl $11, %esi
  5086. movdqa 160(%rdi), %xmm9
  5087. jl L_AES_GCM_encrypt_update_aesni_aesenc_block_aesenc_avx_last
  5088. aesenc %xmm9, %xmm8
  5089. aesenc 176(%rdi), %xmm8
  5090. cmpl $13, %esi
  5091. movdqa 192(%rdi), %xmm9
  5092. jl L_AES_GCM_encrypt_update_aesni_aesenc_block_aesenc_avx_last
  5093. aesenc %xmm9, %xmm8
  5094. aesenc 208(%rdi), %xmm8
  5095. movdqa 224(%rdi), %xmm9
  5096. L_AES_GCM_encrypt_update_aesni_aesenc_block_aesenc_avx_last:
  5097. aesenclast %xmm9, %xmm8
  5098. movdqu (%rcx), %xmm9
  5099. pxor %xmm9, %xmm8
  5100. movdqu %xmm8, (%rdx)
  5101. pshufb L_aes_gcm_bswap_mask(%rip), %xmm8
  5102. pxor %xmm8, %xmm6
  5103. addl $16, %r14d
  5104. cmpl %r13d, %r14d
  5105. jge L_AES_GCM_encrypt_update_aesni_last_block_ghash
  5106. L_AES_GCM_encrypt_update_aesni_last_block_start:
  5107. leaq (%r11,%r14,1), %rcx
  5108. leaq (%r10,%r14,1), %rdx
  5109. movdqa (%r12), %xmm8
  5110. movdqa %xmm8, %xmm9
  5111. pshufb L_aes_gcm_bswap_epi64(%rip), %xmm8
  5112. paddd L_aes_gcm_one(%rip), %xmm9
  5113. pxor (%rdi), %xmm8
  5114. movdqa %xmm9, (%r12)
  5115. movdqa %xmm6, %xmm10
  5116. pclmulqdq $16, %xmm5, %xmm10
  5117. aesenc 16(%rdi), %xmm8
  5118. aesenc 32(%rdi), %xmm8
  5119. movdqa %xmm6, %xmm11
  5120. pclmulqdq $0x01, %xmm5, %xmm11
  5121. aesenc 48(%rdi), %xmm8
  5122. aesenc 64(%rdi), %xmm8
  5123. movdqa %xmm6, %xmm12
  5124. pclmulqdq $0x00, %xmm5, %xmm12
  5125. aesenc 80(%rdi), %xmm8
  5126. movdqa %xmm6, %xmm1
  5127. pclmulqdq $0x11, %xmm5, %xmm1
  5128. aesenc 96(%rdi), %xmm8
  5129. pxor %xmm11, %xmm10
  5130. movdqa %xmm10, %xmm2
  5131. psrldq $8, %xmm10
  5132. pslldq $8, %xmm2
  5133. aesenc 112(%rdi), %xmm8
  5134. movdqa %xmm1, %xmm3
  5135. pxor %xmm12, %xmm2
  5136. pxor %xmm10, %xmm3
  5137. movdqa L_aes_gcm_mod2_128(%rip), %xmm0
  5138. movdqa %xmm2, %xmm11
  5139. pclmulqdq $16, %xmm0, %xmm11
  5140. aesenc 128(%rdi), %xmm8
  5141. pshufd $0x4e, %xmm2, %xmm10
  5142. pxor %xmm11, %xmm10
  5143. movdqa %xmm10, %xmm11
  5144. pclmulqdq $16, %xmm0, %xmm11
  5145. aesenc 144(%rdi), %xmm8
  5146. pshufd $0x4e, %xmm10, %xmm6
  5147. pxor %xmm11, %xmm6
  5148. pxor %xmm3, %xmm6
  5149. cmpl $11, %esi
  5150. movdqa 160(%rdi), %xmm9
  5151. jl L_AES_GCM_encrypt_update_aesni_aesenc_gfmul_last
  5152. aesenc %xmm9, %xmm8
  5153. aesenc 176(%rdi), %xmm8
  5154. cmpl $13, %esi
  5155. movdqa 192(%rdi), %xmm9
  5156. jl L_AES_GCM_encrypt_update_aesni_aesenc_gfmul_last
  5157. aesenc %xmm9, %xmm8
  5158. aesenc 208(%rdi), %xmm8
  5159. movdqa 224(%rdi), %xmm9
  5160. L_AES_GCM_encrypt_update_aesni_aesenc_gfmul_last:
  5161. aesenclast %xmm9, %xmm8
  5162. movdqu (%rcx), %xmm9
  5163. pxor %xmm9, %xmm8
  5164. movdqu %xmm8, (%rdx)
  5165. pshufb L_aes_gcm_bswap_mask(%rip), %xmm8
  5166. pxor %xmm8, %xmm6
  5167. addl $16, %r14d
  5168. cmpl %r13d, %r14d
  5169. jl L_AES_GCM_encrypt_update_aesni_last_block_start
  5170. L_AES_GCM_encrypt_update_aesni_last_block_ghash:
  5171. pshufd $0x4e, %xmm5, %xmm9
  5172. pshufd $0x4e, %xmm6, %xmm10
  5173. movdqa %xmm6, %xmm11
  5174. movdqa %xmm6, %xmm8
  5175. pclmulqdq $0x11, %xmm5, %xmm11
  5176. pclmulqdq $0x00, %xmm5, %xmm8
  5177. pxor %xmm5, %xmm9
  5178. pxor %xmm6, %xmm10
  5179. pclmulqdq $0x00, %xmm10, %xmm9
  5180. pxor %xmm8, %xmm9
  5181. pxor %xmm11, %xmm9
  5182. movdqa %xmm9, %xmm10
  5183. movdqa %xmm11, %xmm6
  5184. pslldq $8, %xmm10
  5185. psrldq $8, %xmm9
  5186. pxor %xmm10, %xmm8
  5187. pxor %xmm9, %xmm6
  5188. movdqa %xmm8, %xmm12
  5189. movdqa %xmm8, %xmm13
  5190. movdqa %xmm8, %xmm14
  5191. pslld $31, %xmm12
  5192. pslld $30, %xmm13
  5193. pslld $25, %xmm14
  5194. pxor %xmm13, %xmm12
  5195. pxor %xmm14, %xmm12
  5196. movdqa %xmm12, %xmm13
  5197. psrldq $4, %xmm13
  5198. pslldq $12, %xmm12
  5199. pxor %xmm12, %xmm8
  5200. movdqa %xmm8, %xmm14
  5201. movdqa %xmm8, %xmm10
  5202. movdqa %xmm8, %xmm9
  5203. psrld $0x01, %xmm14
  5204. psrld $2, %xmm10
  5205. psrld $7, %xmm9
  5206. pxor %xmm10, %xmm14
  5207. pxor %xmm9, %xmm14
  5208. pxor %xmm13, %xmm14
  5209. pxor %xmm8, %xmm14
  5210. pxor %xmm14, %xmm6
  5211. L_AES_GCM_encrypt_update_aesni_last_block_done:
  5212. L_AES_GCM_encrypt_update_aesni_done_enc:
  5213. movdqa %xmm6, (%r9)
  5214. addq $0xa0, %rsp
  5215. popq %r14
  5216. popq %r12
  5217. popq %r13
  5218. repz retq
  5219. #ifndef __APPLE__
  5220. .size AES_GCM_encrypt_update_aesni,.-AES_GCM_encrypt_update_aesni
  5221. #endif /* __APPLE__ */
  5222. #ifndef __APPLE__
  5223. .text
  5224. .globl AES_GCM_encrypt_final_aesni
  5225. .type AES_GCM_encrypt_final_aesni,@function
  5226. .align 16
  5227. AES_GCM_encrypt_final_aesni:
  5228. #else
  5229. .section __TEXT,__text
  5230. .globl _AES_GCM_encrypt_final_aesni
  5231. .p2align 4
  5232. _AES_GCM_encrypt_final_aesni:
  5233. #endif /* __APPLE__ */
  5234. pushq %r13
  5235. movq %rdx, %rax
  5236. movl %ecx, %r10d
  5237. movl %r8d, %r11d
  5238. movq 16(%rsp), %r8
  5239. subq $16, %rsp
  5240. movdqa (%rdi), %xmm4
  5241. movdqa (%r9), %xmm5
  5242. movdqa (%r8), %xmm6
  5243. movdqa %xmm5, %xmm9
  5244. movdqa %xmm5, %xmm8
  5245. psrlq $63, %xmm9
  5246. psllq $0x01, %xmm8
  5247. pslldq $8, %xmm9
  5248. por %xmm9, %xmm8
  5249. pshufd $0xff, %xmm5, %xmm5
  5250. psrad $31, %xmm5
  5251. pand L_aes_gcm_mod2_128(%rip), %xmm5
  5252. pxor %xmm8, %xmm5
  5253. movl %r10d, %edx
  5254. movl %r11d, %ecx
  5255. shlq $3, %rdx
  5256. shlq $3, %rcx
  5257. pinsrq $0x00, %rdx, %xmm0
  5258. pinsrq $0x01, %rcx, %xmm0
  5259. pxor %xmm0, %xmm4
  5260. pshufd $0x4e, %xmm5, %xmm9
  5261. pshufd $0x4e, %xmm4, %xmm10
  5262. movdqa %xmm4, %xmm11
  5263. movdqa %xmm4, %xmm8
  5264. pclmulqdq $0x11, %xmm5, %xmm11
  5265. pclmulqdq $0x00, %xmm5, %xmm8
  5266. pxor %xmm5, %xmm9
  5267. pxor %xmm4, %xmm10
  5268. pclmulqdq $0x00, %xmm10, %xmm9
  5269. pxor %xmm8, %xmm9
  5270. pxor %xmm11, %xmm9
  5271. movdqa %xmm9, %xmm10
  5272. movdqa %xmm11, %xmm4
  5273. pslldq $8, %xmm10
  5274. psrldq $8, %xmm9
  5275. pxor %xmm10, %xmm8
  5276. pxor %xmm9, %xmm4
  5277. movdqa %xmm8, %xmm12
  5278. movdqa %xmm8, %xmm13
  5279. movdqa %xmm8, %xmm14
  5280. pslld $31, %xmm12
  5281. pslld $30, %xmm13
  5282. pslld $25, %xmm14
  5283. pxor %xmm13, %xmm12
  5284. pxor %xmm14, %xmm12
  5285. movdqa %xmm12, %xmm13
  5286. psrldq $4, %xmm13
  5287. pslldq $12, %xmm12
  5288. pxor %xmm12, %xmm8
  5289. movdqa %xmm8, %xmm14
  5290. movdqa %xmm8, %xmm10
  5291. movdqa %xmm8, %xmm9
  5292. psrld $0x01, %xmm14
  5293. psrld $2, %xmm10
  5294. psrld $7, %xmm9
  5295. pxor %xmm10, %xmm14
  5296. pxor %xmm9, %xmm14
  5297. pxor %xmm13, %xmm14
  5298. pxor %xmm8, %xmm14
  5299. pxor %xmm14, %xmm4
  5300. pshufb L_aes_gcm_bswap_mask(%rip), %xmm4
  5301. movdqa %xmm6, %xmm0
  5302. pxor %xmm4, %xmm0
  5303. cmpl $16, %eax
  5304. je L_AES_GCM_encrypt_final_aesni_store_tag_16
  5305. xorq %rcx, %rcx
  5306. movdqa %xmm0, (%rsp)
  5307. L_AES_GCM_encrypt_final_aesni_store_tag_loop:
  5308. movzbl (%rsp,%rcx,1), %r13d
  5309. movb %r13b, (%rsi,%rcx,1)
  5310. incl %ecx
  5311. cmpl %eax, %ecx
  5312. jne L_AES_GCM_encrypt_final_aesni_store_tag_loop
  5313. jmp L_AES_GCM_encrypt_final_aesni_store_tag_done
  5314. L_AES_GCM_encrypt_final_aesni_store_tag_16:
  5315. movdqu %xmm0, (%rsi)
  5316. L_AES_GCM_encrypt_final_aesni_store_tag_done:
  5317. addq $16, %rsp
  5318. popq %r13
  5319. repz retq
  5320. #ifndef __APPLE__
  5321. .size AES_GCM_encrypt_final_aesni,.-AES_GCM_encrypt_final_aesni
  5322. #endif /* __APPLE__ */
  5323. #ifndef __APPLE__
  5324. .text
  5325. .globl AES_GCM_decrypt_update_aesni
  5326. .type AES_GCM_decrypt_update_aesni,@function
  5327. .align 16
  5328. AES_GCM_decrypt_update_aesni:
  5329. #else
  5330. .section __TEXT,__text
  5331. .globl _AES_GCM_decrypt_update_aesni
  5332. .p2align 4
  5333. _AES_GCM_decrypt_update_aesni:
  5334. #endif /* __APPLE__ */
  5335. pushq %r13
  5336. pushq %r12
  5337. pushq %r14
  5338. pushq %r15
  5339. movq %rdx, %r10
  5340. movq %rcx, %r11
  5341. movq 40(%rsp), %rax
  5342. movq 48(%rsp), %r12
  5343. subq $0xa8, %rsp
  5344. movdqa (%r9), %xmm6
  5345. movdqa (%rax), %xmm5
  5346. movdqa %xmm5, %xmm9
  5347. movdqa %xmm5, %xmm8
  5348. psrlq $63, %xmm9
  5349. psllq $0x01, %xmm8
  5350. pslldq $8, %xmm9
  5351. por %xmm9, %xmm8
  5352. pshufd $0xff, %xmm5, %xmm5
  5353. psrad $31, %xmm5
  5354. pand L_aes_gcm_mod2_128(%rip), %xmm5
  5355. pxor %xmm8, %xmm5
  5356. xorl %r14d, %r14d
  5357. cmpl $0x80, %r8d
  5358. movl %r8d, %r13d
  5359. jl L_AES_GCM_decrypt_update_aesni_done_128
  5360. andl $0xffffff80, %r13d
  5361. movdqa %xmm6, %xmm2
  5362. # H ^ 1
  5363. movdqa %xmm5, (%rsp)
  5364. # H ^ 2
  5365. pshufd $0x4e, %xmm5, %xmm9
  5366. pshufd $0x4e, %xmm5, %xmm10
  5367. movdqa %xmm5, %xmm11
  5368. movdqa %xmm5, %xmm8
  5369. pclmulqdq $0x11, %xmm5, %xmm11
  5370. pclmulqdq $0x00, %xmm5, %xmm8
  5371. pxor %xmm5, %xmm9
  5372. pxor %xmm5, %xmm10
  5373. pclmulqdq $0x00, %xmm10, %xmm9
  5374. pxor %xmm8, %xmm9
  5375. pxor %xmm11, %xmm9
  5376. movdqa %xmm9, %xmm10
  5377. movdqa %xmm11, %xmm0
  5378. pslldq $8, %xmm10
  5379. psrldq $8, %xmm9
  5380. pxor %xmm10, %xmm8
  5381. pxor %xmm9, %xmm0
  5382. movdqa %xmm8, %xmm12
  5383. movdqa %xmm8, %xmm13
  5384. movdqa %xmm8, %xmm14
  5385. pslld $31, %xmm12
  5386. pslld $30, %xmm13
  5387. pslld $25, %xmm14
  5388. pxor %xmm13, %xmm12
  5389. pxor %xmm14, %xmm12
  5390. movdqa %xmm12, %xmm13
  5391. psrldq $4, %xmm13
  5392. pslldq $12, %xmm12
  5393. pxor %xmm12, %xmm8
  5394. movdqa %xmm8, %xmm14
  5395. movdqa %xmm8, %xmm10
  5396. movdqa %xmm8, %xmm9
  5397. psrld $0x01, %xmm14
  5398. psrld $2, %xmm10
  5399. psrld $7, %xmm9
  5400. pxor %xmm10, %xmm14
  5401. pxor %xmm9, %xmm14
  5402. pxor %xmm13, %xmm14
  5403. pxor %xmm8, %xmm14
  5404. pxor %xmm14, %xmm0
  5405. movdqa %xmm0, 16(%rsp)
  5406. # H ^ 3
  5407. pshufd $0x4e, %xmm5, %xmm9
  5408. pshufd $0x4e, %xmm0, %xmm10
  5409. movdqa %xmm0, %xmm11
  5410. movdqa %xmm0, %xmm8
  5411. pclmulqdq $0x11, %xmm5, %xmm11
  5412. pclmulqdq $0x00, %xmm5, %xmm8
  5413. pxor %xmm5, %xmm9
  5414. pxor %xmm0, %xmm10
  5415. pclmulqdq $0x00, %xmm10, %xmm9
  5416. pxor %xmm8, %xmm9
  5417. pxor %xmm11, %xmm9
  5418. movdqa %xmm9, %xmm10
  5419. movdqa %xmm11, %xmm1
  5420. pslldq $8, %xmm10
  5421. psrldq $8, %xmm9
  5422. pxor %xmm10, %xmm8
  5423. pxor %xmm9, %xmm1
  5424. movdqa %xmm8, %xmm12
  5425. movdqa %xmm8, %xmm13
  5426. movdqa %xmm8, %xmm14
  5427. pslld $31, %xmm12
  5428. pslld $30, %xmm13
  5429. pslld $25, %xmm14
  5430. pxor %xmm13, %xmm12
  5431. pxor %xmm14, %xmm12
  5432. movdqa %xmm12, %xmm13
  5433. psrldq $4, %xmm13
  5434. pslldq $12, %xmm12
  5435. pxor %xmm12, %xmm8
  5436. movdqa %xmm8, %xmm14
  5437. movdqa %xmm8, %xmm10
  5438. movdqa %xmm8, %xmm9
  5439. psrld $0x01, %xmm14
  5440. psrld $2, %xmm10
  5441. psrld $7, %xmm9
  5442. pxor %xmm10, %xmm14
  5443. pxor %xmm9, %xmm14
  5444. pxor %xmm13, %xmm14
  5445. pxor %xmm8, %xmm14
  5446. pxor %xmm14, %xmm1
  5447. movdqa %xmm1, 32(%rsp)
  5448. # H ^ 4
  5449. pshufd $0x4e, %xmm0, %xmm9
  5450. pshufd $0x4e, %xmm0, %xmm10
  5451. movdqa %xmm0, %xmm11
  5452. movdqa %xmm0, %xmm8
  5453. pclmulqdq $0x11, %xmm0, %xmm11
  5454. pclmulqdq $0x00, %xmm0, %xmm8
  5455. pxor %xmm0, %xmm9
  5456. pxor %xmm0, %xmm10
  5457. pclmulqdq $0x00, %xmm10, %xmm9
  5458. pxor %xmm8, %xmm9
  5459. pxor %xmm11, %xmm9
  5460. movdqa %xmm9, %xmm10
  5461. movdqa %xmm11, %xmm3
  5462. pslldq $8, %xmm10
  5463. psrldq $8, %xmm9
  5464. pxor %xmm10, %xmm8
  5465. pxor %xmm9, %xmm3
  5466. movdqa %xmm8, %xmm12
  5467. movdqa %xmm8, %xmm13
  5468. movdqa %xmm8, %xmm14
  5469. pslld $31, %xmm12
  5470. pslld $30, %xmm13
  5471. pslld $25, %xmm14
  5472. pxor %xmm13, %xmm12
  5473. pxor %xmm14, %xmm12
  5474. movdqa %xmm12, %xmm13
  5475. psrldq $4, %xmm13
  5476. pslldq $12, %xmm12
  5477. pxor %xmm12, %xmm8
  5478. movdqa %xmm8, %xmm14
  5479. movdqa %xmm8, %xmm10
  5480. movdqa %xmm8, %xmm9
  5481. psrld $0x01, %xmm14
  5482. psrld $2, %xmm10
  5483. psrld $7, %xmm9
  5484. pxor %xmm10, %xmm14
  5485. pxor %xmm9, %xmm14
  5486. pxor %xmm13, %xmm14
  5487. pxor %xmm8, %xmm14
  5488. pxor %xmm14, %xmm3
  5489. movdqa %xmm3, 48(%rsp)
  5490. # H ^ 5
  5491. pshufd $0x4e, %xmm0, %xmm9
  5492. pshufd $0x4e, %xmm1, %xmm10
  5493. movdqa %xmm1, %xmm11
  5494. movdqa %xmm1, %xmm8
  5495. pclmulqdq $0x11, %xmm0, %xmm11
  5496. pclmulqdq $0x00, %xmm0, %xmm8
  5497. pxor %xmm0, %xmm9
  5498. pxor %xmm1, %xmm10
  5499. pclmulqdq $0x00, %xmm10, %xmm9
  5500. pxor %xmm8, %xmm9
  5501. pxor %xmm11, %xmm9
  5502. movdqa %xmm9, %xmm10
  5503. movdqa %xmm11, %xmm7
  5504. pslldq $8, %xmm10
  5505. psrldq $8, %xmm9
  5506. pxor %xmm10, %xmm8
  5507. pxor %xmm9, %xmm7
  5508. movdqa %xmm8, %xmm12
  5509. movdqa %xmm8, %xmm13
  5510. movdqa %xmm8, %xmm14
  5511. pslld $31, %xmm12
  5512. pslld $30, %xmm13
  5513. pslld $25, %xmm14
  5514. pxor %xmm13, %xmm12
  5515. pxor %xmm14, %xmm12
  5516. movdqa %xmm12, %xmm13
  5517. psrldq $4, %xmm13
  5518. pslldq $12, %xmm12
  5519. pxor %xmm12, %xmm8
  5520. movdqa %xmm8, %xmm14
  5521. movdqa %xmm8, %xmm10
  5522. movdqa %xmm8, %xmm9
  5523. psrld $0x01, %xmm14
  5524. psrld $2, %xmm10
  5525. psrld $7, %xmm9
  5526. pxor %xmm10, %xmm14
  5527. pxor %xmm9, %xmm14
  5528. pxor %xmm13, %xmm14
  5529. pxor %xmm8, %xmm14
  5530. pxor %xmm14, %xmm7
  5531. movdqa %xmm7, 64(%rsp)
  5532. # H ^ 6
  5533. pshufd $0x4e, %xmm1, %xmm9
  5534. pshufd $0x4e, %xmm1, %xmm10
  5535. movdqa %xmm1, %xmm11
  5536. movdqa %xmm1, %xmm8
  5537. pclmulqdq $0x11, %xmm1, %xmm11
  5538. pclmulqdq $0x00, %xmm1, %xmm8
  5539. pxor %xmm1, %xmm9
  5540. pxor %xmm1, %xmm10
  5541. pclmulqdq $0x00, %xmm10, %xmm9
  5542. pxor %xmm8, %xmm9
  5543. pxor %xmm11, %xmm9
  5544. movdqa %xmm9, %xmm10
  5545. movdqa %xmm11, %xmm7
  5546. pslldq $8, %xmm10
  5547. psrldq $8, %xmm9
  5548. pxor %xmm10, %xmm8
  5549. pxor %xmm9, %xmm7
  5550. movdqa %xmm8, %xmm12
  5551. movdqa %xmm8, %xmm13
  5552. movdqa %xmm8, %xmm14
  5553. pslld $31, %xmm12
  5554. pslld $30, %xmm13
  5555. pslld $25, %xmm14
  5556. pxor %xmm13, %xmm12
  5557. pxor %xmm14, %xmm12
  5558. movdqa %xmm12, %xmm13
  5559. psrldq $4, %xmm13
  5560. pslldq $12, %xmm12
  5561. pxor %xmm12, %xmm8
  5562. movdqa %xmm8, %xmm14
  5563. movdqa %xmm8, %xmm10
  5564. movdqa %xmm8, %xmm9
  5565. psrld $0x01, %xmm14
  5566. psrld $2, %xmm10
  5567. psrld $7, %xmm9
  5568. pxor %xmm10, %xmm14
  5569. pxor %xmm9, %xmm14
  5570. pxor %xmm13, %xmm14
  5571. pxor %xmm8, %xmm14
  5572. pxor %xmm14, %xmm7
  5573. movdqa %xmm7, 80(%rsp)
  5574. # H ^ 7
  5575. pshufd $0x4e, %xmm1, %xmm9
  5576. pshufd $0x4e, %xmm3, %xmm10
  5577. movdqa %xmm3, %xmm11
  5578. movdqa %xmm3, %xmm8
  5579. pclmulqdq $0x11, %xmm1, %xmm11
  5580. pclmulqdq $0x00, %xmm1, %xmm8
  5581. pxor %xmm1, %xmm9
  5582. pxor %xmm3, %xmm10
  5583. pclmulqdq $0x00, %xmm10, %xmm9
  5584. pxor %xmm8, %xmm9
  5585. pxor %xmm11, %xmm9
  5586. movdqa %xmm9, %xmm10
  5587. movdqa %xmm11, %xmm7
  5588. pslldq $8, %xmm10
  5589. psrldq $8, %xmm9
  5590. pxor %xmm10, %xmm8
  5591. pxor %xmm9, %xmm7
  5592. movdqa %xmm8, %xmm12
  5593. movdqa %xmm8, %xmm13
  5594. movdqa %xmm8, %xmm14
  5595. pslld $31, %xmm12
  5596. pslld $30, %xmm13
  5597. pslld $25, %xmm14
  5598. pxor %xmm13, %xmm12
  5599. pxor %xmm14, %xmm12
  5600. movdqa %xmm12, %xmm13
  5601. psrldq $4, %xmm13
  5602. pslldq $12, %xmm12
  5603. pxor %xmm12, %xmm8
  5604. movdqa %xmm8, %xmm14
  5605. movdqa %xmm8, %xmm10
  5606. movdqa %xmm8, %xmm9
  5607. psrld $0x01, %xmm14
  5608. psrld $2, %xmm10
  5609. psrld $7, %xmm9
  5610. pxor %xmm10, %xmm14
  5611. pxor %xmm9, %xmm14
  5612. pxor %xmm13, %xmm14
  5613. pxor %xmm8, %xmm14
  5614. pxor %xmm14, %xmm7
  5615. movdqa %xmm7, 96(%rsp)
  5616. # H ^ 8
  5617. pshufd $0x4e, %xmm3, %xmm9
  5618. pshufd $0x4e, %xmm3, %xmm10
  5619. movdqa %xmm3, %xmm11
  5620. movdqa %xmm3, %xmm8
  5621. pclmulqdq $0x11, %xmm3, %xmm11
  5622. pclmulqdq $0x00, %xmm3, %xmm8
  5623. pxor %xmm3, %xmm9
  5624. pxor %xmm3, %xmm10
  5625. pclmulqdq $0x00, %xmm10, %xmm9
  5626. pxor %xmm8, %xmm9
  5627. pxor %xmm11, %xmm9
  5628. movdqa %xmm9, %xmm10
  5629. movdqa %xmm11, %xmm7
  5630. pslldq $8, %xmm10
  5631. psrldq $8, %xmm9
  5632. pxor %xmm10, %xmm8
  5633. pxor %xmm9, %xmm7
  5634. movdqa %xmm8, %xmm12
  5635. movdqa %xmm8, %xmm13
  5636. movdqa %xmm8, %xmm14
  5637. pslld $31, %xmm12
  5638. pslld $30, %xmm13
  5639. pslld $25, %xmm14
  5640. pxor %xmm13, %xmm12
  5641. pxor %xmm14, %xmm12
  5642. movdqa %xmm12, %xmm13
  5643. psrldq $4, %xmm13
  5644. pslldq $12, %xmm12
  5645. pxor %xmm12, %xmm8
  5646. movdqa %xmm8, %xmm14
  5647. movdqa %xmm8, %xmm10
  5648. movdqa %xmm8, %xmm9
  5649. psrld $0x01, %xmm14
  5650. psrld $2, %xmm10
  5651. psrld $7, %xmm9
  5652. pxor %xmm10, %xmm14
  5653. pxor %xmm9, %xmm14
  5654. pxor %xmm13, %xmm14
  5655. pxor %xmm8, %xmm14
  5656. pxor %xmm14, %xmm7
  5657. movdqa %xmm7, 112(%rsp)
  5658. L_AES_GCM_decrypt_update_aesni_ghash_128:
  5659. leaq (%r11,%r14,1), %rcx
  5660. leaq (%r10,%r14,1), %rdx
  5661. movdqa (%r12), %xmm8
  5662. movdqa L_aes_gcm_bswap_epi64(%rip), %xmm1
  5663. movdqa %xmm8, %xmm0
  5664. pshufb %xmm1, %xmm8
  5665. movdqa %xmm0, %xmm9
  5666. paddd L_aes_gcm_one(%rip), %xmm9
  5667. pshufb %xmm1, %xmm9
  5668. movdqa %xmm0, %xmm10
  5669. paddd L_aes_gcm_two(%rip), %xmm10
  5670. pshufb %xmm1, %xmm10
  5671. movdqa %xmm0, %xmm11
  5672. paddd L_aes_gcm_three(%rip), %xmm11
  5673. pshufb %xmm1, %xmm11
  5674. movdqa %xmm0, %xmm12
  5675. paddd L_aes_gcm_four(%rip), %xmm12
  5676. pshufb %xmm1, %xmm12
  5677. movdqa %xmm0, %xmm13
  5678. paddd L_aes_gcm_five(%rip), %xmm13
  5679. pshufb %xmm1, %xmm13
  5680. movdqa %xmm0, %xmm14
  5681. paddd L_aes_gcm_six(%rip), %xmm14
  5682. pshufb %xmm1, %xmm14
  5683. movdqa %xmm0, %xmm15
  5684. paddd L_aes_gcm_seven(%rip), %xmm15
  5685. pshufb %xmm1, %xmm15
  5686. paddd L_aes_gcm_eight(%rip), %xmm0
  5687. movdqa (%rdi), %xmm7
  5688. movdqa %xmm0, (%r12)
  5689. pxor %xmm7, %xmm8
  5690. pxor %xmm7, %xmm9
  5691. pxor %xmm7, %xmm10
  5692. pxor %xmm7, %xmm11
  5693. pxor %xmm7, %xmm12
  5694. pxor %xmm7, %xmm13
  5695. pxor %xmm7, %xmm14
  5696. pxor %xmm7, %xmm15
  5697. movdqa 112(%rsp), %xmm7
  5698. movdqu (%rcx), %xmm0
  5699. aesenc 16(%rdi), %xmm8
  5700. pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
  5701. pxor %xmm2, %xmm0
  5702. pshufd $0x4e, %xmm7, %xmm1
  5703. pshufd $0x4e, %xmm0, %xmm5
  5704. pxor %xmm7, %xmm1
  5705. pxor %xmm0, %xmm5
  5706. movdqa %xmm0, %xmm3
  5707. pclmulqdq $0x11, %xmm7, %xmm3
  5708. aesenc 16(%rdi), %xmm9
  5709. aesenc 16(%rdi), %xmm10
  5710. movdqa %xmm0, %xmm2
  5711. pclmulqdq $0x00, %xmm7, %xmm2
  5712. aesenc 16(%rdi), %xmm11
  5713. aesenc 16(%rdi), %xmm12
  5714. pclmulqdq $0x00, %xmm5, %xmm1
  5715. aesenc 16(%rdi), %xmm13
  5716. aesenc 16(%rdi), %xmm14
  5717. aesenc 16(%rdi), %xmm15
  5718. pxor %xmm2, %xmm1
  5719. pxor %xmm3, %xmm1
  5720. movdqa 96(%rsp), %xmm7
  5721. movdqu 16(%rcx), %xmm0
  5722. pshufd $0x4e, %xmm7, %xmm4
  5723. pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
  5724. aesenc 32(%rdi), %xmm8
  5725. pxor %xmm7, %xmm4
  5726. pshufd $0x4e, %xmm0, %xmm5
  5727. pxor %xmm0, %xmm5
  5728. movdqa %xmm0, %xmm6
  5729. pclmulqdq $0x11, %xmm7, %xmm6
  5730. aesenc 32(%rdi), %xmm9
  5731. aesenc 32(%rdi), %xmm10
  5732. pclmulqdq $0x00, %xmm0, %xmm7
  5733. aesenc 32(%rdi), %xmm11
  5734. aesenc 32(%rdi), %xmm12
  5735. pclmulqdq $0x00, %xmm5, %xmm4
  5736. aesenc 32(%rdi), %xmm13
  5737. aesenc 32(%rdi), %xmm14
  5738. aesenc 32(%rdi), %xmm15
  5739. pxor %xmm7, %xmm1
  5740. pxor %xmm7, %xmm2
  5741. pxor %xmm6, %xmm1
  5742. pxor %xmm6, %xmm3
  5743. pxor %xmm4, %xmm1
  5744. movdqa 80(%rsp), %xmm7
  5745. movdqu 32(%rcx), %xmm0
  5746. pshufd $0x4e, %xmm7, %xmm4
  5747. pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
  5748. aesenc 48(%rdi), %xmm8
  5749. pxor %xmm7, %xmm4
  5750. pshufd $0x4e, %xmm0, %xmm5
  5751. pxor %xmm0, %xmm5
  5752. movdqa %xmm0, %xmm6
  5753. pclmulqdq $0x11, %xmm7, %xmm6
  5754. aesenc 48(%rdi), %xmm9
  5755. aesenc 48(%rdi), %xmm10
  5756. pclmulqdq $0x00, %xmm0, %xmm7
  5757. aesenc 48(%rdi), %xmm11
  5758. aesenc 48(%rdi), %xmm12
  5759. pclmulqdq $0x00, %xmm5, %xmm4
  5760. aesenc 48(%rdi), %xmm13
  5761. aesenc 48(%rdi), %xmm14
  5762. aesenc 48(%rdi), %xmm15
  5763. pxor %xmm7, %xmm1
  5764. pxor %xmm7, %xmm2
  5765. pxor %xmm6, %xmm1
  5766. pxor %xmm6, %xmm3
  5767. pxor %xmm4, %xmm1
  5768. movdqa 64(%rsp), %xmm7
  5769. movdqu 48(%rcx), %xmm0
  5770. pshufd $0x4e, %xmm7, %xmm4
  5771. pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
  5772. aesenc 64(%rdi), %xmm8
  5773. pxor %xmm7, %xmm4
  5774. pshufd $0x4e, %xmm0, %xmm5
  5775. pxor %xmm0, %xmm5
  5776. movdqa %xmm0, %xmm6
  5777. pclmulqdq $0x11, %xmm7, %xmm6
  5778. aesenc 64(%rdi), %xmm9
  5779. aesenc 64(%rdi), %xmm10
  5780. pclmulqdq $0x00, %xmm0, %xmm7
  5781. aesenc 64(%rdi), %xmm11
  5782. aesenc 64(%rdi), %xmm12
  5783. pclmulqdq $0x00, %xmm5, %xmm4
  5784. aesenc 64(%rdi), %xmm13
  5785. aesenc 64(%rdi), %xmm14
  5786. aesenc 64(%rdi), %xmm15
  5787. pxor %xmm7, %xmm1
  5788. pxor %xmm7, %xmm2
  5789. pxor %xmm6, %xmm1
  5790. pxor %xmm6, %xmm3
  5791. pxor %xmm4, %xmm1
  5792. movdqa 48(%rsp), %xmm7
  5793. movdqu 64(%rcx), %xmm0
  5794. pshufd $0x4e, %xmm7, %xmm4
  5795. pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
  5796. aesenc 80(%rdi), %xmm8
  5797. pxor %xmm7, %xmm4
  5798. pshufd $0x4e, %xmm0, %xmm5
  5799. pxor %xmm0, %xmm5
  5800. movdqa %xmm0, %xmm6
  5801. pclmulqdq $0x11, %xmm7, %xmm6
  5802. aesenc 80(%rdi), %xmm9
  5803. aesenc 80(%rdi), %xmm10
  5804. pclmulqdq $0x00, %xmm0, %xmm7
  5805. aesenc 80(%rdi), %xmm11
  5806. aesenc 80(%rdi), %xmm12
  5807. pclmulqdq $0x00, %xmm5, %xmm4
  5808. aesenc 80(%rdi), %xmm13
  5809. aesenc 80(%rdi), %xmm14
  5810. aesenc 80(%rdi), %xmm15
  5811. pxor %xmm7, %xmm1
  5812. pxor %xmm7, %xmm2
  5813. pxor %xmm6, %xmm1
  5814. pxor %xmm6, %xmm3
  5815. pxor %xmm4, %xmm1
  5816. movdqa 32(%rsp), %xmm7
  5817. movdqu 80(%rcx), %xmm0
  5818. pshufd $0x4e, %xmm7, %xmm4
  5819. pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
  5820. aesenc 96(%rdi), %xmm8
  5821. pxor %xmm7, %xmm4
  5822. pshufd $0x4e, %xmm0, %xmm5
  5823. pxor %xmm0, %xmm5
  5824. movdqa %xmm0, %xmm6
  5825. pclmulqdq $0x11, %xmm7, %xmm6
  5826. aesenc 96(%rdi), %xmm9
  5827. aesenc 96(%rdi), %xmm10
  5828. pclmulqdq $0x00, %xmm0, %xmm7
  5829. aesenc 96(%rdi), %xmm11
  5830. aesenc 96(%rdi), %xmm12
  5831. pclmulqdq $0x00, %xmm5, %xmm4
  5832. aesenc 96(%rdi), %xmm13
  5833. aesenc 96(%rdi), %xmm14
  5834. aesenc 96(%rdi), %xmm15
  5835. pxor %xmm7, %xmm1
  5836. pxor %xmm7, %xmm2
  5837. pxor %xmm6, %xmm1
  5838. pxor %xmm6, %xmm3
  5839. pxor %xmm4, %xmm1
  5840. movdqa 16(%rsp), %xmm7
  5841. movdqu 96(%rcx), %xmm0
  5842. pshufd $0x4e, %xmm7, %xmm4
  5843. pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
  5844. aesenc 112(%rdi), %xmm8
  5845. pxor %xmm7, %xmm4
  5846. pshufd $0x4e, %xmm0, %xmm5
  5847. pxor %xmm0, %xmm5
  5848. movdqa %xmm0, %xmm6
  5849. pclmulqdq $0x11, %xmm7, %xmm6
  5850. aesenc 112(%rdi), %xmm9
  5851. aesenc 112(%rdi), %xmm10
  5852. pclmulqdq $0x00, %xmm0, %xmm7
  5853. aesenc 112(%rdi), %xmm11
  5854. aesenc 112(%rdi), %xmm12
  5855. pclmulqdq $0x00, %xmm5, %xmm4
  5856. aesenc 112(%rdi), %xmm13
  5857. aesenc 112(%rdi), %xmm14
  5858. aesenc 112(%rdi), %xmm15
  5859. pxor %xmm7, %xmm1
  5860. pxor %xmm7, %xmm2
  5861. pxor %xmm6, %xmm1
  5862. pxor %xmm6, %xmm3
  5863. pxor %xmm4, %xmm1
  5864. movdqa (%rsp), %xmm7
  5865. movdqu 112(%rcx), %xmm0
  5866. pshufd $0x4e, %xmm7, %xmm4
  5867. pshufb L_aes_gcm_bswap_mask(%rip), %xmm0
  5868. aesenc 128(%rdi), %xmm8
  5869. pxor %xmm7, %xmm4
  5870. pshufd $0x4e, %xmm0, %xmm5
  5871. pxor %xmm0, %xmm5
  5872. movdqa %xmm0, %xmm6
  5873. pclmulqdq $0x11, %xmm7, %xmm6
  5874. aesenc 128(%rdi), %xmm9
  5875. aesenc 128(%rdi), %xmm10
  5876. pclmulqdq $0x00, %xmm0, %xmm7
  5877. aesenc 128(%rdi), %xmm11
  5878. aesenc 128(%rdi), %xmm12
  5879. pclmulqdq $0x00, %xmm5, %xmm4
  5880. aesenc 128(%rdi), %xmm13
  5881. aesenc 128(%rdi), %xmm14
  5882. aesenc 128(%rdi), %xmm15
  5883. pxor %xmm7, %xmm1
  5884. pxor %xmm7, %xmm2
  5885. pxor %xmm6, %xmm1
  5886. pxor %xmm6, %xmm3
  5887. pxor %xmm4, %xmm1
  5888. movdqa %xmm1, %xmm5
  5889. psrldq $8, %xmm1
  5890. pslldq $8, %xmm5
  5891. aesenc 144(%rdi), %xmm8
  5892. pxor %xmm5, %xmm2
  5893. pxor %xmm1, %xmm3
  5894. movdqa %xmm2, %xmm7
  5895. movdqa %xmm2, %xmm4
  5896. movdqa %xmm2, %xmm5
  5897. aesenc 144(%rdi), %xmm9
  5898. pslld $31, %xmm7
  5899. pslld $30, %xmm4
  5900. pslld $25, %xmm5
  5901. aesenc 144(%rdi), %xmm10
  5902. pxor %xmm4, %xmm7
  5903. pxor %xmm5, %xmm7
  5904. aesenc 144(%rdi), %xmm11
  5905. movdqa %xmm7, %xmm4
  5906. pslldq $12, %xmm7
  5907. psrldq $4, %xmm4
  5908. aesenc 144(%rdi), %xmm12
  5909. pxor %xmm7, %xmm2
  5910. movdqa %xmm2, %xmm5
  5911. movdqa %xmm2, %xmm1
  5912. movdqa %xmm2, %xmm0
  5913. aesenc 144(%rdi), %xmm13
  5914. psrld $0x01, %xmm5
  5915. psrld $2, %xmm1
  5916. psrld $7, %xmm0
  5917. aesenc 144(%rdi), %xmm14
  5918. pxor %xmm1, %xmm5
  5919. pxor %xmm0, %xmm5
  5920. aesenc 144(%rdi), %xmm15
  5921. pxor %xmm4, %xmm5
  5922. pxor %xmm5, %xmm2
  5923. pxor %xmm3, %xmm2
  5924. cmpl $11, %esi
  5925. movdqa 160(%rdi), %xmm7
  5926. jl L_AES_GCM_decrypt_update_aesni_aesenc_128_ghash_avx_done
  5927. aesenc %xmm7, %xmm8
  5928. aesenc %xmm7, %xmm9
  5929. aesenc %xmm7, %xmm10
  5930. aesenc %xmm7, %xmm11
  5931. aesenc %xmm7, %xmm12
  5932. aesenc %xmm7, %xmm13
  5933. aesenc %xmm7, %xmm14
  5934. aesenc %xmm7, %xmm15
  5935. movdqa 176(%rdi), %xmm7
  5936. aesenc %xmm7, %xmm8
  5937. aesenc %xmm7, %xmm9
  5938. aesenc %xmm7, %xmm10
  5939. aesenc %xmm7, %xmm11
  5940. aesenc %xmm7, %xmm12
  5941. aesenc %xmm7, %xmm13
  5942. aesenc %xmm7, %xmm14
  5943. aesenc %xmm7, %xmm15
  5944. cmpl $13, %esi
  5945. movdqa 192(%rdi), %xmm7
  5946. jl L_AES_GCM_decrypt_update_aesni_aesenc_128_ghash_avx_done
  5947. aesenc %xmm7, %xmm8
  5948. aesenc %xmm7, %xmm9
  5949. aesenc %xmm7, %xmm10
  5950. aesenc %xmm7, %xmm11
  5951. aesenc %xmm7, %xmm12
  5952. aesenc %xmm7, %xmm13
  5953. aesenc %xmm7, %xmm14
  5954. aesenc %xmm7, %xmm15
  5955. movdqa 208(%rdi), %xmm7
  5956. aesenc %xmm7, %xmm8
  5957. aesenc %xmm7, %xmm9
  5958. aesenc %xmm7, %xmm10
  5959. aesenc %xmm7, %xmm11
  5960. aesenc %xmm7, %xmm12
  5961. aesenc %xmm7, %xmm13
  5962. aesenc %xmm7, %xmm14
  5963. aesenc %xmm7, %xmm15
  5964. movdqa 224(%rdi), %xmm7
  5965. L_AES_GCM_decrypt_update_aesni_aesenc_128_ghash_avx_done:
  5966. aesenclast %xmm7, %xmm8
  5967. aesenclast %xmm7, %xmm9
  5968. movdqu (%rcx), %xmm0
  5969. movdqu 16(%rcx), %xmm1
  5970. pxor %xmm0, %xmm8
  5971. pxor %xmm1, %xmm9
  5972. movdqu %xmm8, (%rdx)
  5973. movdqu %xmm9, 16(%rdx)
  5974. aesenclast %xmm7, %xmm10
  5975. aesenclast %xmm7, %xmm11
  5976. movdqu 32(%rcx), %xmm0
  5977. movdqu 48(%rcx), %xmm1
  5978. pxor %xmm0, %xmm10
  5979. pxor %xmm1, %xmm11
  5980. movdqu %xmm10, 32(%rdx)
  5981. movdqu %xmm11, 48(%rdx)
  5982. aesenclast %xmm7, %xmm12
  5983. aesenclast %xmm7, %xmm13
  5984. movdqu 64(%rcx), %xmm0
  5985. movdqu 80(%rcx), %xmm1
  5986. pxor %xmm0, %xmm12
  5987. pxor %xmm1, %xmm13
  5988. movdqu %xmm12, 64(%rdx)
  5989. movdqu %xmm13, 80(%rdx)
  5990. aesenclast %xmm7, %xmm14
  5991. aesenclast %xmm7, %xmm15
  5992. movdqu 96(%rcx), %xmm0
  5993. movdqu 112(%rcx), %xmm1
  5994. pxor %xmm0, %xmm14
  5995. pxor %xmm1, %xmm15
  5996. movdqu %xmm14, 96(%rdx)
  5997. movdqu %xmm15, 112(%rdx)
  5998. addl $0x80, %r14d
  5999. cmpl %r13d, %r14d
  6000. jl L_AES_GCM_decrypt_update_aesni_ghash_128
  6001. movdqa %xmm2, %xmm6
  6002. movdqa (%rsp), %xmm5
  6003. L_AES_GCM_decrypt_update_aesni_done_128:
  6004. movl %r8d, %edx
  6005. cmpl %edx, %r14d
  6006. jge L_AES_GCM_decrypt_update_aesni_done_dec
  6007. movl %r8d, %r13d
  6008. andl $0xfffffff0, %r13d
  6009. cmpl %r13d, %r14d
  6010. jge L_AES_GCM_decrypt_update_aesni_last_block_done
  6011. L_AES_GCM_decrypt_update_aesni_last_block_start:
  6012. leaq (%r11,%r14,1), %rcx
  6013. leaq (%r10,%r14,1), %rdx
  6014. movdqu (%rcx), %xmm1
  6015. movdqa %xmm5, %xmm0
  6016. pshufb L_aes_gcm_bswap_mask(%rip), %xmm1
  6017. pxor %xmm6, %xmm1
  6018. movdqa (%r12), %xmm8
  6019. movdqa %xmm8, %xmm9
  6020. pshufb L_aes_gcm_bswap_epi64(%rip), %xmm8
  6021. paddd L_aes_gcm_one(%rip), %xmm9
  6022. pxor (%rdi), %xmm8
  6023. movdqa %xmm9, (%r12)
  6024. movdqa %xmm1, %xmm10
  6025. pclmulqdq $16, %xmm0, %xmm10
  6026. aesenc 16(%rdi), %xmm8
  6027. aesenc 32(%rdi), %xmm8
  6028. movdqa %xmm1, %xmm11
  6029. pclmulqdq $0x01, %xmm0, %xmm11
  6030. aesenc 48(%rdi), %xmm8
  6031. aesenc 64(%rdi), %xmm8
  6032. movdqa %xmm1, %xmm12
  6033. pclmulqdq $0x00, %xmm0, %xmm12
  6034. aesenc 80(%rdi), %xmm8
  6035. movdqa %xmm1, %xmm1
  6036. pclmulqdq $0x11, %xmm0, %xmm1
  6037. aesenc 96(%rdi), %xmm8
  6038. pxor %xmm11, %xmm10
  6039. movdqa %xmm10, %xmm2
  6040. psrldq $8, %xmm10
  6041. pslldq $8, %xmm2
  6042. aesenc 112(%rdi), %xmm8
  6043. movdqa %xmm1, %xmm3
  6044. pxor %xmm12, %xmm2
  6045. pxor %xmm10, %xmm3
  6046. movdqa L_aes_gcm_mod2_128(%rip), %xmm0
  6047. movdqa %xmm2, %xmm11
  6048. pclmulqdq $16, %xmm0, %xmm11
  6049. aesenc 128(%rdi), %xmm8
  6050. pshufd $0x4e, %xmm2, %xmm10
  6051. pxor %xmm11, %xmm10
  6052. movdqa %xmm10, %xmm11
  6053. pclmulqdq $16, %xmm0, %xmm11
  6054. aesenc 144(%rdi), %xmm8
  6055. pshufd $0x4e, %xmm10, %xmm6
  6056. pxor %xmm11, %xmm6
  6057. pxor %xmm3, %xmm6
  6058. cmpl $11, %esi
  6059. movdqa 160(%rdi), %xmm9
  6060. jl L_AES_GCM_decrypt_update_aesni_aesenc_gfmul_last
  6061. aesenc %xmm9, %xmm8
  6062. aesenc 176(%rdi), %xmm8
  6063. cmpl $13, %esi
  6064. movdqa 192(%rdi), %xmm9
  6065. jl L_AES_GCM_decrypt_update_aesni_aesenc_gfmul_last
  6066. aesenc %xmm9, %xmm8
  6067. aesenc 208(%rdi), %xmm8
  6068. movdqa 224(%rdi), %xmm9
  6069. L_AES_GCM_decrypt_update_aesni_aesenc_gfmul_last:
  6070. aesenclast %xmm9, %xmm8
  6071. movdqu (%rcx), %xmm9
  6072. pxor %xmm9, %xmm8
  6073. movdqu %xmm8, (%rdx)
  6074. addl $16, %r14d
  6075. cmpl %r13d, %r14d
  6076. jl L_AES_GCM_decrypt_update_aesni_last_block_start
  6077. L_AES_GCM_decrypt_update_aesni_last_block_done:
  6078. L_AES_GCM_decrypt_update_aesni_done_dec:
  6079. movdqa %xmm6, (%r9)
  6080. addq $0xa8, %rsp
  6081. popq %r15
  6082. popq %r14
  6083. popq %r12
  6084. popq %r13
  6085. repz retq
  6086. #ifndef __APPLE__
  6087. .size AES_GCM_decrypt_update_aesni,.-AES_GCM_decrypt_update_aesni
  6088. #endif /* __APPLE__ */
  6089. #ifndef __APPLE__
  6090. .text
  6091. .globl AES_GCM_decrypt_final_aesni
  6092. .type AES_GCM_decrypt_final_aesni,@function
  6093. .align 16
  6094. AES_GCM_decrypt_final_aesni:
  6095. #else
  6096. .section __TEXT,__text
  6097. .globl _AES_GCM_decrypt_final_aesni
  6098. .p2align 4
  6099. _AES_GCM_decrypt_final_aesni:
  6100. #endif /* __APPLE__ */
  6101. pushq %r13
  6102. pushq %rbp
  6103. pushq %r12
  6104. movq %rdx, %rax
  6105. movl %ecx, %r10d
  6106. movl %r8d, %r11d
  6107. movq 32(%rsp), %r8
  6108. movq 40(%rsp), %rbp
  6109. subq $16, %rsp
  6110. movdqa (%rdi), %xmm6
  6111. movdqa (%r9), %xmm5
  6112. movdqa (%r8), %xmm15
  6113. movdqa %xmm5, %xmm9
  6114. movdqa %xmm5, %xmm8
  6115. psrlq $63, %xmm9
  6116. psllq $0x01, %xmm8
  6117. pslldq $8, %xmm9
  6118. por %xmm9, %xmm8
  6119. pshufd $0xff, %xmm5, %xmm5
  6120. psrad $31, %xmm5
  6121. pand L_aes_gcm_mod2_128(%rip), %xmm5
  6122. pxor %xmm8, %xmm5
  6123. movl %r10d, %edx
  6124. movl %r11d, %ecx
  6125. shlq $3, %rdx
  6126. shlq $3, %rcx
  6127. pinsrq $0x00, %rdx, %xmm0
  6128. pinsrq $0x01, %rcx, %xmm0
  6129. pxor %xmm0, %xmm6
  6130. pshufd $0x4e, %xmm5, %xmm9
  6131. pshufd $0x4e, %xmm6, %xmm10
  6132. movdqa %xmm6, %xmm11
  6133. movdqa %xmm6, %xmm8
  6134. pclmulqdq $0x11, %xmm5, %xmm11
  6135. pclmulqdq $0x00, %xmm5, %xmm8
  6136. pxor %xmm5, %xmm9
  6137. pxor %xmm6, %xmm10
  6138. pclmulqdq $0x00, %xmm10, %xmm9
  6139. pxor %xmm8, %xmm9
  6140. pxor %xmm11, %xmm9
  6141. movdqa %xmm9, %xmm10
  6142. movdqa %xmm11, %xmm6
  6143. pslldq $8, %xmm10
  6144. psrldq $8, %xmm9
  6145. pxor %xmm10, %xmm8
  6146. pxor %xmm9, %xmm6
  6147. movdqa %xmm8, %xmm12
  6148. movdqa %xmm8, %xmm13
  6149. movdqa %xmm8, %xmm14
  6150. pslld $31, %xmm12
  6151. pslld $30, %xmm13
  6152. pslld $25, %xmm14
  6153. pxor %xmm13, %xmm12
  6154. pxor %xmm14, %xmm12
  6155. movdqa %xmm12, %xmm13
  6156. psrldq $4, %xmm13
  6157. pslldq $12, %xmm12
  6158. pxor %xmm12, %xmm8
  6159. movdqa %xmm8, %xmm14
  6160. movdqa %xmm8, %xmm10
  6161. movdqa %xmm8, %xmm9
  6162. psrld $0x01, %xmm14
  6163. psrld $2, %xmm10
  6164. psrld $7, %xmm9
  6165. pxor %xmm10, %xmm14
  6166. pxor %xmm9, %xmm14
  6167. pxor %xmm13, %xmm14
  6168. pxor %xmm8, %xmm14
  6169. pxor %xmm14, %xmm6
  6170. pshufb L_aes_gcm_bswap_mask(%rip), %xmm6
  6171. movdqa %xmm15, %xmm0
  6172. pxor %xmm6, %xmm0
  6173. cmpl $16, %eax
  6174. je L_AES_GCM_decrypt_final_aesni_cmp_tag_16
  6175. subq $16, %rsp
  6176. xorq %rcx, %rcx
  6177. xorq %r12, %r12
  6178. movdqa %xmm0, (%rsp)
  6179. L_AES_GCM_decrypt_final_aesni_cmp_tag_loop:
  6180. movzbl (%rsp,%rcx,1), %r13d
  6181. xorb (%rsi,%rcx,1), %r13b
  6182. orb %r13b, %r12b
  6183. incl %ecx
  6184. cmpl %eax, %ecx
  6185. jne L_AES_GCM_decrypt_final_aesni_cmp_tag_loop
  6186. cmpb $0x00, %r12b
  6187. sete %r12b
  6188. addq $16, %rsp
  6189. xorq %rcx, %rcx
  6190. jmp L_AES_GCM_decrypt_final_aesni_cmp_tag_done
  6191. L_AES_GCM_decrypt_final_aesni_cmp_tag_16:
  6192. movdqu (%rsi), %xmm1
  6193. pcmpeqb %xmm1, %xmm0
  6194. pmovmskb %xmm0, %rdx
  6195. # %%edx == 0xFFFF then return 1 else => return 0
  6196. xorl %r12d, %r12d
  6197. cmpl $0xffff, %edx
  6198. sete %r12b
  6199. L_AES_GCM_decrypt_final_aesni_cmp_tag_done:
  6200. movl %r12d, (%rbp)
  6201. addq $16, %rsp
  6202. popq %r12
  6203. popq %rbp
  6204. popq %r13
  6205. repz retq
  6206. #ifndef __APPLE__
  6207. .size AES_GCM_decrypt_final_aesni,.-AES_GCM_decrypt_final_aesni
  6208. #endif /* __APPLE__ */
  6209. #endif /* WOLFSSL_AESGCM_STREAM */
  6210. #ifdef HAVE_INTEL_AVX1
  6211. #ifndef __APPLE__
  6212. .data
  6213. #else
  6214. .section __DATA,__data
  6215. #endif /* __APPLE__ */
  6216. #ifndef __APPLE__
  6217. .align 16
  6218. #else
  6219. .p2align 4
  6220. #endif /* __APPLE__ */
  6221. L_avx1_aes_gcm_one:
  6222. .quad 0x0, 0x1
  6223. #ifndef __APPLE__
  6224. .data
  6225. #else
  6226. .section __DATA,__data
  6227. #endif /* __APPLE__ */
  6228. #ifndef __APPLE__
  6229. .align 16
  6230. #else
  6231. .p2align 4
  6232. #endif /* __APPLE__ */
  6233. L_avx1_aes_gcm_two:
  6234. .quad 0x0, 0x2
  6235. #ifndef __APPLE__
  6236. .data
  6237. #else
  6238. .section __DATA,__data
  6239. #endif /* __APPLE__ */
  6240. #ifndef __APPLE__
  6241. .align 16
  6242. #else
  6243. .p2align 4
  6244. #endif /* __APPLE__ */
  6245. L_avx1_aes_gcm_three:
  6246. .quad 0x0, 0x3
  6247. #ifndef __APPLE__
  6248. .data
  6249. #else
  6250. .section __DATA,__data
  6251. #endif /* __APPLE__ */
  6252. #ifndef __APPLE__
  6253. .align 16
  6254. #else
  6255. .p2align 4
  6256. #endif /* __APPLE__ */
  6257. L_avx1_aes_gcm_four:
  6258. .quad 0x0, 0x4
  6259. #ifndef __APPLE__
  6260. .data
  6261. #else
  6262. .section __DATA,__data
  6263. #endif /* __APPLE__ */
  6264. #ifndef __APPLE__
  6265. .align 16
  6266. #else
  6267. .p2align 4
  6268. #endif /* __APPLE__ */
  6269. L_avx1_aes_gcm_five:
  6270. .quad 0x0, 0x5
  6271. #ifndef __APPLE__
  6272. .data
  6273. #else
  6274. .section __DATA,__data
  6275. #endif /* __APPLE__ */
  6276. #ifndef __APPLE__
  6277. .align 16
  6278. #else
  6279. .p2align 4
  6280. #endif /* __APPLE__ */
  6281. L_avx1_aes_gcm_six:
  6282. .quad 0x0, 0x6
  6283. #ifndef __APPLE__
  6284. .data
  6285. #else
  6286. .section __DATA,__data
  6287. #endif /* __APPLE__ */
  6288. #ifndef __APPLE__
  6289. .align 16
  6290. #else
  6291. .p2align 4
  6292. #endif /* __APPLE__ */
  6293. L_avx1_aes_gcm_seven:
  6294. .quad 0x0, 0x7
  6295. #ifndef __APPLE__
  6296. .data
  6297. #else
  6298. .section __DATA,__data
  6299. #endif /* __APPLE__ */
  6300. #ifndef __APPLE__
  6301. .align 16
  6302. #else
  6303. .p2align 4
  6304. #endif /* __APPLE__ */
  6305. L_avx1_aes_gcm_eight:
  6306. .quad 0x0, 0x8
  6307. #ifndef __APPLE__
  6308. .data
  6309. #else
  6310. .section __DATA,__data
  6311. #endif /* __APPLE__ */
  6312. #ifndef __APPLE__
  6313. .align 16
  6314. #else
  6315. .p2align 4
  6316. #endif /* __APPLE__ */
  6317. L_avx1_aes_gcm_bswap_epi64:
  6318. .quad 0x1020304050607, 0x8090a0b0c0d0e0f
  6319. #ifndef __APPLE__
  6320. .data
  6321. #else
  6322. .section __DATA,__data
  6323. #endif /* __APPLE__ */
  6324. #ifndef __APPLE__
  6325. .align 16
  6326. #else
  6327. .p2align 4
  6328. #endif /* __APPLE__ */
  6329. L_avx1_aes_gcm_bswap_mask:
  6330. .quad 0x8090a0b0c0d0e0f, 0x1020304050607
  6331. #ifndef __APPLE__
  6332. .data
  6333. #else
  6334. .section __DATA,__data
  6335. #endif /* __APPLE__ */
  6336. #ifndef __APPLE__
  6337. .align 16
  6338. #else
  6339. .p2align 4
  6340. #endif /* __APPLE__ */
  6341. L_avx1_aes_gcm_mod2_128:
  6342. .quad 0x1, 0xc200000000000000
  6343. #ifndef __APPLE__
  6344. .text
  6345. .globl AES_GCM_encrypt_avx1
  6346. .type AES_GCM_encrypt_avx1,@function
  6347. .align 16
  6348. AES_GCM_encrypt_avx1:
  6349. #else
  6350. .section __TEXT,__text
  6351. .globl _AES_GCM_encrypt_avx1
  6352. .p2align 4
  6353. _AES_GCM_encrypt_avx1:
  6354. #endif /* __APPLE__ */
  6355. pushq %r13
  6356. pushq %r12
  6357. pushq %rbx
  6358. pushq %r14
  6359. pushq %r15
  6360. movq %rdx, %r12
  6361. movq %rcx, %rax
  6362. movl 48(%rsp), %r11d
  6363. movl 56(%rsp), %ebx
  6364. movl 64(%rsp), %r14d
  6365. movq 72(%rsp), %r15
  6366. movl 80(%rsp), %r10d
  6367. subq $0xa0, %rsp
  6368. vpxor %xmm4, %xmm4, %xmm4
  6369. vpxor %xmm6, %xmm6, %xmm6
  6370. movl %ebx, %edx
  6371. cmpl $12, %edx
  6372. jne L_AES_GCM_encrypt_avx1_iv_not_12
  6373. # # Calculate values when IV is 12 bytes
  6374. # Set counter based on IV
  6375. movl $0x1000000, %ecx
  6376. vpinsrq $0x00, (%rax), %xmm4, %xmm4
  6377. vpinsrd $2, 8(%rax), %xmm4, %xmm4
  6378. vpinsrd $3, %ecx, %xmm4, %xmm4
  6379. # H = Encrypt X(=0) and T = Encrypt counter
  6380. vmovdqa (%r15), %xmm5
  6381. vpxor %xmm5, %xmm4, %xmm1
  6382. vmovdqa 16(%r15), %xmm7
  6383. vaesenc %xmm7, %xmm5, %xmm5
  6384. vaesenc %xmm7, %xmm1, %xmm1
  6385. vmovdqa 32(%r15), %xmm7
  6386. vaesenc %xmm7, %xmm5, %xmm5
  6387. vaesenc %xmm7, %xmm1, %xmm1
  6388. vmovdqa 48(%r15), %xmm7
  6389. vaesenc %xmm7, %xmm5, %xmm5
  6390. vaesenc %xmm7, %xmm1, %xmm1
  6391. vmovdqa 64(%r15), %xmm7
  6392. vaesenc %xmm7, %xmm5, %xmm5
  6393. vaesenc %xmm7, %xmm1, %xmm1
  6394. vmovdqa 80(%r15), %xmm7
  6395. vaesenc %xmm7, %xmm5, %xmm5
  6396. vaesenc %xmm7, %xmm1, %xmm1
  6397. vmovdqa 96(%r15), %xmm7
  6398. vaesenc %xmm7, %xmm5, %xmm5
  6399. vaesenc %xmm7, %xmm1, %xmm1
  6400. vmovdqa 112(%r15), %xmm7
  6401. vaesenc %xmm7, %xmm5, %xmm5
  6402. vaesenc %xmm7, %xmm1, %xmm1
  6403. vmovdqa 128(%r15), %xmm7
  6404. vaesenc %xmm7, %xmm5, %xmm5
  6405. vaesenc %xmm7, %xmm1, %xmm1
  6406. vmovdqa 144(%r15), %xmm7
  6407. vaesenc %xmm7, %xmm5, %xmm5
  6408. vaesenc %xmm7, %xmm1, %xmm1
  6409. cmpl $11, %r10d
  6410. vmovdqa 160(%r15), %xmm7
  6411. jl L_AES_GCM_encrypt_avx1_calc_iv_12_last
  6412. vaesenc %xmm7, %xmm5, %xmm5
  6413. vaesenc %xmm7, %xmm1, %xmm1
  6414. vmovdqa 176(%r15), %xmm7
  6415. vaesenc %xmm7, %xmm5, %xmm5
  6416. vaesenc %xmm7, %xmm1, %xmm1
  6417. cmpl $13, %r10d
  6418. vmovdqa 192(%r15), %xmm7
  6419. jl L_AES_GCM_encrypt_avx1_calc_iv_12_last
  6420. vaesenc %xmm7, %xmm5, %xmm5
  6421. vaesenc %xmm7, %xmm1, %xmm1
  6422. vmovdqa 208(%r15), %xmm7
  6423. vaesenc %xmm7, %xmm5, %xmm5
  6424. vaesenc %xmm7, %xmm1, %xmm1
  6425. vmovdqa 224(%r15), %xmm7
  6426. L_AES_GCM_encrypt_avx1_calc_iv_12_last:
  6427. vaesenclast %xmm7, %xmm5, %xmm5
  6428. vaesenclast %xmm7, %xmm1, %xmm1
  6429. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm5, %xmm5
  6430. vmovdqa %xmm1, 144(%rsp)
  6431. jmp L_AES_GCM_encrypt_avx1_iv_done
  6432. L_AES_GCM_encrypt_avx1_iv_not_12:
  6433. # Calculate values when IV is not 12 bytes
  6434. # H = Encrypt X(=0)
  6435. vmovdqa (%r15), %xmm5
  6436. vaesenc 16(%r15), %xmm5, %xmm5
  6437. vaesenc 32(%r15), %xmm5, %xmm5
  6438. vaesenc 48(%r15), %xmm5, %xmm5
  6439. vaesenc 64(%r15), %xmm5, %xmm5
  6440. vaesenc 80(%r15), %xmm5, %xmm5
  6441. vaesenc 96(%r15), %xmm5, %xmm5
  6442. vaesenc 112(%r15), %xmm5, %xmm5
  6443. vaesenc 128(%r15), %xmm5, %xmm5
  6444. vaesenc 144(%r15), %xmm5, %xmm5
  6445. cmpl $11, %r10d
  6446. vmovdqa 160(%r15), %xmm9
  6447. jl L_AES_GCM_encrypt_avx1_calc_iv_1_aesenc_avx_last
  6448. vaesenc %xmm9, %xmm5, %xmm5
  6449. vaesenc 176(%r15), %xmm5, %xmm5
  6450. cmpl $13, %r10d
  6451. vmovdqa 192(%r15), %xmm9
  6452. jl L_AES_GCM_encrypt_avx1_calc_iv_1_aesenc_avx_last
  6453. vaesenc %xmm9, %xmm5, %xmm5
  6454. vaesenc 208(%r15), %xmm5, %xmm5
  6455. vmovdqa 224(%r15), %xmm9
  6456. L_AES_GCM_encrypt_avx1_calc_iv_1_aesenc_avx_last:
  6457. vaesenclast %xmm9, %xmm5, %xmm5
  6458. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm5, %xmm5
  6459. # Calc counter
  6460. # Initialization vector
  6461. cmpl $0x00, %edx
  6462. movq $0x00, %rcx
  6463. je L_AES_GCM_encrypt_avx1_calc_iv_done
  6464. cmpl $16, %edx
  6465. jl L_AES_GCM_encrypt_avx1_calc_iv_lt16
  6466. andl $0xfffffff0, %edx
  6467. L_AES_GCM_encrypt_avx1_calc_iv_16_loop:
  6468. vmovdqu (%rax,%rcx,1), %xmm8
  6469. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm8, %xmm8
  6470. vpxor %xmm8, %xmm4, %xmm4
  6471. # ghash_gfmul_avx
  6472. vpshufd $0x4e, %xmm4, %xmm1
  6473. vpshufd $0x4e, %xmm5, %xmm2
  6474. vpclmulqdq $0x11, %xmm4, %xmm5, %xmm3
  6475. vpclmulqdq $0x00, %xmm4, %xmm5, %xmm0
  6476. vpxor %xmm4, %xmm1, %xmm1
  6477. vpxor %xmm5, %xmm2, %xmm2
  6478. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
  6479. vpxor %xmm0, %xmm1, %xmm1
  6480. vpxor %xmm3, %xmm1, %xmm1
  6481. vmovdqa %xmm0, %xmm7
  6482. vmovdqa %xmm3, %xmm4
  6483. vpslldq $8, %xmm1, %xmm2
  6484. vpsrldq $8, %xmm1, %xmm1
  6485. vpxor %xmm2, %xmm7, %xmm7
  6486. vpxor %xmm1, %xmm4, %xmm4
  6487. vpsrld $31, %xmm7, %xmm0
  6488. vpsrld $31, %xmm4, %xmm1
  6489. vpslld $0x01, %xmm7, %xmm7
  6490. vpslld $0x01, %xmm4, %xmm4
  6491. vpsrldq $12, %xmm0, %xmm2
  6492. vpslldq $4, %xmm0, %xmm0
  6493. vpslldq $4, %xmm1, %xmm1
  6494. vpor %xmm2, %xmm4, %xmm4
  6495. vpor %xmm0, %xmm7, %xmm7
  6496. vpor %xmm1, %xmm4, %xmm4
  6497. vpslld $31, %xmm7, %xmm0
  6498. vpslld $30, %xmm7, %xmm1
  6499. vpslld $25, %xmm7, %xmm2
  6500. vpxor %xmm1, %xmm0, %xmm0
  6501. vpxor %xmm2, %xmm0, %xmm0
  6502. vmovdqa %xmm0, %xmm1
  6503. vpsrldq $4, %xmm1, %xmm1
  6504. vpslldq $12, %xmm0, %xmm0
  6505. vpxor %xmm0, %xmm7, %xmm7
  6506. vpsrld $0x01, %xmm7, %xmm2
  6507. vpsrld $2, %xmm7, %xmm3
  6508. vpsrld $7, %xmm7, %xmm0
  6509. vpxor %xmm3, %xmm2, %xmm2
  6510. vpxor %xmm0, %xmm2, %xmm2
  6511. vpxor %xmm1, %xmm2, %xmm2
  6512. vpxor %xmm7, %xmm2, %xmm2
  6513. vpxor %xmm2, %xmm4, %xmm4
  6514. addl $16, %ecx
  6515. cmpl %edx, %ecx
  6516. jl L_AES_GCM_encrypt_avx1_calc_iv_16_loop
  6517. movl %ebx, %edx
  6518. cmpl %edx, %ecx
  6519. je L_AES_GCM_encrypt_avx1_calc_iv_done
  6520. L_AES_GCM_encrypt_avx1_calc_iv_lt16:
  6521. subq $16, %rsp
  6522. vpxor %xmm8, %xmm8, %xmm8
  6523. xorl %ebx, %ebx
  6524. vmovdqu %xmm8, (%rsp)
  6525. L_AES_GCM_encrypt_avx1_calc_iv_loop:
  6526. movzbl (%rax,%rcx,1), %r13d
  6527. movb %r13b, (%rsp,%rbx,1)
  6528. incl %ecx
  6529. incl %ebx
  6530. cmpl %edx, %ecx
  6531. jl L_AES_GCM_encrypt_avx1_calc_iv_loop
  6532. vmovdqu (%rsp), %xmm8
  6533. addq $16, %rsp
  6534. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm8, %xmm8
  6535. vpxor %xmm8, %xmm4, %xmm4
  6536. # ghash_gfmul_avx
  6537. vpshufd $0x4e, %xmm4, %xmm1
  6538. vpshufd $0x4e, %xmm5, %xmm2
  6539. vpclmulqdq $0x11, %xmm4, %xmm5, %xmm3
  6540. vpclmulqdq $0x00, %xmm4, %xmm5, %xmm0
  6541. vpxor %xmm4, %xmm1, %xmm1
  6542. vpxor %xmm5, %xmm2, %xmm2
  6543. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
  6544. vpxor %xmm0, %xmm1, %xmm1
  6545. vpxor %xmm3, %xmm1, %xmm1
  6546. vmovdqa %xmm0, %xmm7
  6547. vmovdqa %xmm3, %xmm4
  6548. vpslldq $8, %xmm1, %xmm2
  6549. vpsrldq $8, %xmm1, %xmm1
  6550. vpxor %xmm2, %xmm7, %xmm7
  6551. vpxor %xmm1, %xmm4, %xmm4
  6552. vpsrld $31, %xmm7, %xmm0
  6553. vpsrld $31, %xmm4, %xmm1
  6554. vpslld $0x01, %xmm7, %xmm7
  6555. vpslld $0x01, %xmm4, %xmm4
  6556. vpsrldq $12, %xmm0, %xmm2
  6557. vpslldq $4, %xmm0, %xmm0
  6558. vpslldq $4, %xmm1, %xmm1
  6559. vpor %xmm2, %xmm4, %xmm4
  6560. vpor %xmm0, %xmm7, %xmm7
  6561. vpor %xmm1, %xmm4, %xmm4
  6562. vpslld $31, %xmm7, %xmm0
  6563. vpslld $30, %xmm7, %xmm1
  6564. vpslld $25, %xmm7, %xmm2
  6565. vpxor %xmm1, %xmm0, %xmm0
  6566. vpxor %xmm2, %xmm0, %xmm0
  6567. vmovdqa %xmm0, %xmm1
  6568. vpsrldq $4, %xmm1, %xmm1
  6569. vpslldq $12, %xmm0, %xmm0
  6570. vpxor %xmm0, %xmm7, %xmm7
  6571. vpsrld $0x01, %xmm7, %xmm2
  6572. vpsrld $2, %xmm7, %xmm3
  6573. vpsrld $7, %xmm7, %xmm0
  6574. vpxor %xmm3, %xmm2, %xmm2
  6575. vpxor %xmm0, %xmm2, %xmm2
  6576. vpxor %xmm1, %xmm2, %xmm2
  6577. vpxor %xmm7, %xmm2, %xmm2
  6578. vpxor %xmm2, %xmm4, %xmm4
  6579. L_AES_GCM_encrypt_avx1_calc_iv_done:
  6580. # T = Encrypt counter
  6581. vpxor %xmm0, %xmm0, %xmm0
  6582. shll $3, %edx
  6583. vpinsrq $0x00, %rdx, %xmm0, %xmm0
  6584. vpxor %xmm0, %xmm4, %xmm4
  6585. # ghash_gfmul_avx
  6586. vpshufd $0x4e, %xmm4, %xmm1
  6587. vpshufd $0x4e, %xmm5, %xmm2
  6588. vpclmulqdq $0x11, %xmm4, %xmm5, %xmm3
  6589. vpclmulqdq $0x00, %xmm4, %xmm5, %xmm0
  6590. vpxor %xmm4, %xmm1, %xmm1
  6591. vpxor %xmm5, %xmm2, %xmm2
  6592. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
  6593. vpxor %xmm0, %xmm1, %xmm1
  6594. vpxor %xmm3, %xmm1, %xmm1
  6595. vmovdqa %xmm0, %xmm7
  6596. vmovdqa %xmm3, %xmm4
  6597. vpslldq $8, %xmm1, %xmm2
  6598. vpsrldq $8, %xmm1, %xmm1
  6599. vpxor %xmm2, %xmm7, %xmm7
  6600. vpxor %xmm1, %xmm4, %xmm4
  6601. vpsrld $31, %xmm7, %xmm0
  6602. vpsrld $31, %xmm4, %xmm1
  6603. vpslld $0x01, %xmm7, %xmm7
  6604. vpslld $0x01, %xmm4, %xmm4
  6605. vpsrldq $12, %xmm0, %xmm2
  6606. vpslldq $4, %xmm0, %xmm0
  6607. vpslldq $4, %xmm1, %xmm1
  6608. vpor %xmm2, %xmm4, %xmm4
  6609. vpor %xmm0, %xmm7, %xmm7
  6610. vpor %xmm1, %xmm4, %xmm4
  6611. vpslld $31, %xmm7, %xmm0
  6612. vpslld $30, %xmm7, %xmm1
  6613. vpslld $25, %xmm7, %xmm2
  6614. vpxor %xmm1, %xmm0, %xmm0
  6615. vpxor %xmm2, %xmm0, %xmm0
  6616. vmovdqa %xmm0, %xmm1
  6617. vpsrldq $4, %xmm1, %xmm1
  6618. vpslldq $12, %xmm0, %xmm0
  6619. vpxor %xmm0, %xmm7, %xmm7
  6620. vpsrld $0x01, %xmm7, %xmm2
  6621. vpsrld $2, %xmm7, %xmm3
  6622. vpsrld $7, %xmm7, %xmm0
  6623. vpxor %xmm3, %xmm2, %xmm2
  6624. vpxor %xmm0, %xmm2, %xmm2
  6625. vpxor %xmm1, %xmm2, %xmm2
  6626. vpxor %xmm7, %xmm2, %xmm2
  6627. vpxor %xmm2, %xmm4, %xmm4
  6628. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm4, %xmm4
  6629. # Encrypt counter
  6630. vmovdqa (%r15), %xmm8
  6631. vpxor %xmm4, %xmm8, %xmm8
  6632. vaesenc 16(%r15), %xmm8, %xmm8
  6633. vaesenc 32(%r15), %xmm8, %xmm8
  6634. vaesenc 48(%r15), %xmm8, %xmm8
  6635. vaesenc 64(%r15), %xmm8, %xmm8
  6636. vaesenc 80(%r15), %xmm8, %xmm8
  6637. vaesenc 96(%r15), %xmm8, %xmm8
  6638. vaesenc 112(%r15), %xmm8, %xmm8
  6639. vaesenc 128(%r15), %xmm8, %xmm8
  6640. vaesenc 144(%r15), %xmm8, %xmm8
  6641. cmpl $11, %r10d
  6642. vmovdqa 160(%r15), %xmm9
  6643. jl L_AES_GCM_encrypt_avx1_calc_iv_2_aesenc_avx_last
  6644. vaesenc %xmm9, %xmm8, %xmm8
  6645. vaesenc 176(%r15), %xmm8, %xmm8
  6646. cmpl $13, %r10d
  6647. vmovdqa 192(%r15), %xmm9
  6648. jl L_AES_GCM_encrypt_avx1_calc_iv_2_aesenc_avx_last
  6649. vaesenc %xmm9, %xmm8, %xmm8
  6650. vaesenc 208(%r15), %xmm8, %xmm8
  6651. vmovdqa 224(%r15), %xmm9
  6652. L_AES_GCM_encrypt_avx1_calc_iv_2_aesenc_avx_last:
  6653. vaesenclast %xmm9, %xmm8, %xmm8
  6654. vmovdqa %xmm8, 144(%rsp)
  6655. L_AES_GCM_encrypt_avx1_iv_done:
  6656. # Additional authentication data
  6657. movl %r11d, %edx
  6658. cmpl $0x00, %edx
  6659. je L_AES_GCM_encrypt_avx1_calc_aad_done
  6660. xorl %ecx, %ecx
  6661. cmpl $16, %edx
  6662. jl L_AES_GCM_encrypt_avx1_calc_aad_lt16
  6663. andl $0xfffffff0, %edx
  6664. L_AES_GCM_encrypt_avx1_calc_aad_16_loop:
  6665. vmovdqu (%r12,%rcx,1), %xmm8
  6666. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm8, %xmm8
  6667. vpxor %xmm8, %xmm6, %xmm6
  6668. # ghash_gfmul_avx
  6669. vpshufd $0x4e, %xmm6, %xmm1
  6670. vpshufd $0x4e, %xmm5, %xmm2
  6671. vpclmulqdq $0x11, %xmm6, %xmm5, %xmm3
  6672. vpclmulqdq $0x00, %xmm6, %xmm5, %xmm0
  6673. vpxor %xmm6, %xmm1, %xmm1
  6674. vpxor %xmm5, %xmm2, %xmm2
  6675. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
  6676. vpxor %xmm0, %xmm1, %xmm1
  6677. vpxor %xmm3, %xmm1, %xmm1
  6678. vmovdqa %xmm0, %xmm7
  6679. vmovdqa %xmm3, %xmm6
  6680. vpslldq $8, %xmm1, %xmm2
  6681. vpsrldq $8, %xmm1, %xmm1
  6682. vpxor %xmm2, %xmm7, %xmm7
  6683. vpxor %xmm1, %xmm6, %xmm6
  6684. vpsrld $31, %xmm7, %xmm0
  6685. vpsrld $31, %xmm6, %xmm1
  6686. vpslld $0x01, %xmm7, %xmm7
  6687. vpslld $0x01, %xmm6, %xmm6
  6688. vpsrldq $12, %xmm0, %xmm2
  6689. vpslldq $4, %xmm0, %xmm0
  6690. vpslldq $4, %xmm1, %xmm1
  6691. vpor %xmm2, %xmm6, %xmm6
  6692. vpor %xmm0, %xmm7, %xmm7
  6693. vpor %xmm1, %xmm6, %xmm6
  6694. vpslld $31, %xmm7, %xmm0
  6695. vpslld $30, %xmm7, %xmm1
  6696. vpslld $25, %xmm7, %xmm2
  6697. vpxor %xmm1, %xmm0, %xmm0
  6698. vpxor %xmm2, %xmm0, %xmm0
  6699. vmovdqa %xmm0, %xmm1
  6700. vpsrldq $4, %xmm1, %xmm1
  6701. vpslldq $12, %xmm0, %xmm0
  6702. vpxor %xmm0, %xmm7, %xmm7
  6703. vpsrld $0x01, %xmm7, %xmm2
  6704. vpsrld $2, %xmm7, %xmm3
  6705. vpsrld $7, %xmm7, %xmm0
  6706. vpxor %xmm3, %xmm2, %xmm2
  6707. vpxor %xmm0, %xmm2, %xmm2
  6708. vpxor %xmm1, %xmm2, %xmm2
  6709. vpxor %xmm7, %xmm2, %xmm2
  6710. vpxor %xmm2, %xmm6, %xmm6
  6711. addl $16, %ecx
  6712. cmpl %edx, %ecx
  6713. jl L_AES_GCM_encrypt_avx1_calc_aad_16_loop
  6714. movl %r11d, %edx
  6715. cmpl %edx, %ecx
  6716. je L_AES_GCM_encrypt_avx1_calc_aad_done
  6717. L_AES_GCM_encrypt_avx1_calc_aad_lt16:
  6718. subq $16, %rsp
  6719. vpxor %xmm8, %xmm8, %xmm8
  6720. xorl %ebx, %ebx
  6721. vmovdqu %xmm8, (%rsp)
  6722. L_AES_GCM_encrypt_avx1_calc_aad_loop:
  6723. movzbl (%r12,%rcx,1), %r13d
  6724. movb %r13b, (%rsp,%rbx,1)
  6725. incl %ecx
  6726. incl %ebx
  6727. cmpl %edx, %ecx
  6728. jl L_AES_GCM_encrypt_avx1_calc_aad_loop
  6729. vmovdqu (%rsp), %xmm8
  6730. addq $16, %rsp
  6731. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm8, %xmm8
  6732. vpxor %xmm8, %xmm6, %xmm6
  6733. # ghash_gfmul_avx
  6734. vpshufd $0x4e, %xmm6, %xmm1
  6735. vpshufd $0x4e, %xmm5, %xmm2
  6736. vpclmulqdq $0x11, %xmm6, %xmm5, %xmm3
  6737. vpclmulqdq $0x00, %xmm6, %xmm5, %xmm0
  6738. vpxor %xmm6, %xmm1, %xmm1
  6739. vpxor %xmm5, %xmm2, %xmm2
  6740. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
  6741. vpxor %xmm0, %xmm1, %xmm1
  6742. vpxor %xmm3, %xmm1, %xmm1
  6743. vmovdqa %xmm0, %xmm7
  6744. vmovdqa %xmm3, %xmm6
  6745. vpslldq $8, %xmm1, %xmm2
  6746. vpsrldq $8, %xmm1, %xmm1
  6747. vpxor %xmm2, %xmm7, %xmm7
  6748. vpxor %xmm1, %xmm6, %xmm6
  6749. vpsrld $31, %xmm7, %xmm0
  6750. vpsrld $31, %xmm6, %xmm1
  6751. vpslld $0x01, %xmm7, %xmm7
  6752. vpslld $0x01, %xmm6, %xmm6
  6753. vpsrldq $12, %xmm0, %xmm2
  6754. vpslldq $4, %xmm0, %xmm0
  6755. vpslldq $4, %xmm1, %xmm1
  6756. vpor %xmm2, %xmm6, %xmm6
  6757. vpor %xmm0, %xmm7, %xmm7
  6758. vpor %xmm1, %xmm6, %xmm6
  6759. vpslld $31, %xmm7, %xmm0
  6760. vpslld $30, %xmm7, %xmm1
  6761. vpslld $25, %xmm7, %xmm2
  6762. vpxor %xmm1, %xmm0, %xmm0
  6763. vpxor %xmm2, %xmm0, %xmm0
  6764. vmovdqa %xmm0, %xmm1
  6765. vpsrldq $4, %xmm1, %xmm1
  6766. vpslldq $12, %xmm0, %xmm0
  6767. vpxor %xmm0, %xmm7, %xmm7
  6768. vpsrld $0x01, %xmm7, %xmm2
  6769. vpsrld $2, %xmm7, %xmm3
  6770. vpsrld $7, %xmm7, %xmm0
  6771. vpxor %xmm3, %xmm2, %xmm2
  6772. vpxor %xmm0, %xmm2, %xmm2
  6773. vpxor %xmm1, %xmm2, %xmm2
  6774. vpxor %xmm7, %xmm2, %xmm2
  6775. vpxor %xmm2, %xmm6, %xmm6
  6776. L_AES_GCM_encrypt_avx1_calc_aad_done:
  6777. # Calculate counter and H
  6778. vpsrlq $63, %xmm5, %xmm9
  6779. vpsllq $0x01, %xmm5, %xmm8
  6780. vpslldq $8, %xmm9, %xmm9
  6781. vpor %xmm9, %xmm8, %xmm8
  6782. vpshufd $0xff, %xmm5, %xmm5
  6783. vpsrad $31, %xmm5, %xmm5
  6784. vpshufb L_avx1_aes_gcm_bswap_epi64(%rip), %xmm4, %xmm4
  6785. vpand L_avx1_aes_gcm_mod2_128(%rip), %xmm5, %xmm5
  6786. vpaddd L_avx1_aes_gcm_one(%rip), %xmm4, %xmm4
  6787. vpxor %xmm8, %xmm5, %xmm5
  6788. vmovdqa %xmm4, 128(%rsp)
  6789. xorl %ebx, %ebx
  6790. cmpl $0x80, %r9d
  6791. movl %r9d, %r13d
  6792. jl L_AES_GCM_encrypt_avx1_done_128
  6793. andl $0xffffff80, %r13d
  6794. vmovdqa %xmm6, %xmm2
  6795. # H ^ 1
  6796. vmovdqa %xmm5, (%rsp)
  6797. # H ^ 2
  6798. vpclmulqdq $0x00, %xmm5, %xmm5, %xmm8
  6799. vpclmulqdq $0x11, %xmm5, %xmm5, %xmm0
  6800. vpslld $31, %xmm8, %xmm12
  6801. vpslld $30, %xmm8, %xmm13
  6802. vpslld $25, %xmm8, %xmm14
  6803. vpxor %xmm13, %xmm12, %xmm12
  6804. vpxor %xmm14, %xmm12, %xmm12
  6805. vpsrldq $4, %xmm12, %xmm13
  6806. vpslldq $12, %xmm12, %xmm12
  6807. vpxor %xmm12, %xmm8, %xmm8
  6808. vpsrld $0x01, %xmm8, %xmm14
  6809. vpsrld $2, %xmm8, %xmm10
  6810. vpsrld $7, %xmm8, %xmm9
  6811. vpxor %xmm10, %xmm14, %xmm14
  6812. vpxor %xmm9, %xmm14, %xmm14
  6813. vpxor %xmm13, %xmm14, %xmm14
  6814. vpxor %xmm8, %xmm14, %xmm14
  6815. vpxor %xmm14, %xmm0, %xmm0
  6816. vmovdqa %xmm0, 16(%rsp)
  6817. # H ^ 3
  6818. # ghash_gfmul_red_avx
  6819. vpshufd $0x4e, %xmm5, %xmm9
  6820. vpshufd $0x4e, %xmm0, %xmm10
  6821. vpclmulqdq $0x11, %xmm5, %xmm0, %xmm11
  6822. vpclmulqdq $0x00, %xmm5, %xmm0, %xmm8
  6823. vpxor %xmm5, %xmm9, %xmm9
  6824. vpxor %xmm0, %xmm10, %xmm10
  6825. vpclmulqdq $0x00, %xmm10, %xmm9, %xmm9
  6826. vpxor %xmm8, %xmm9, %xmm9
  6827. vpxor %xmm11, %xmm9, %xmm9
  6828. vpslldq $8, %xmm9, %xmm10
  6829. vpsrldq $8, %xmm9, %xmm9
  6830. vpxor %xmm10, %xmm8, %xmm8
  6831. vpxor %xmm9, %xmm11, %xmm1
  6832. vpslld $31, %xmm8, %xmm12
  6833. vpslld $30, %xmm8, %xmm13
  6834. vpslld $25, %xmm8, %xmm14
  6835. vpxor %xmm13, %xmm12, %xmm12
  6836. vpxor %xmm14, %xmm12, %xmm12
  6837. vpsrldq $4, %xmm12, %xmm13
  6838. vpslldq $12, %xmm12, %xmm12
  6839. vpxor %xmm12, %xmm8, %xmm8
  6840. vpsrld $0x01, %xmm8, %xmm14
  6841. vpsrld $2, %xmm8, %xmm10
  6842. vpsrld $7, %xmm8, %xmm9
  6843. vpxor %xmm10, %xmm14, %xmm14
  6844. vpxor %xmm9, %xmm14, %xmm14
  6845. vpxor %xmm13, %xmm14, %xmm14
  6846. vpxor %xmm8, %xmm14, %xmm14
  6847. vpxor %xmm14, %xmm1, %xmm1
  6848. vmovdqa %xmm1, 32(%rsp)
  6849. # H ^ 4
  6850. vpclmulqdq $0x00, %xmm0, %xmm0, %xmm8
  6851. vpclmulqdq $0x11, %xmm0, %xmm0, %xmm3
  6852. vpslld $31, %xmm8, %xmm12
  6853. vpslld $30, %xmm8, %xmm13
  6854. vpslld $25, %xmm8, %xmm14
  6855. vpxor %xmm13, %xmm12, %xmm12
  6856. vpxor %xmm14, %xmm12, %xmm12
  6857. vpsrldq $4, %xmm12, %xmm13
  6858. vpslldq $12, %xmm12, %xmm12
  6859. vpxor %xmm12, %xmm8, %xmm8
  6860. vpsrld $0x01, %xmm8, %xmm14
  6861. vpsrld $2, %xmm8, %xmm10
  6862. vpsrld $7, %xmm8, %xmm9
  6863. vpxor %xmm10, %xmm14, %xmm14
  6864. vpxor %xmm9, %xmm14, %xmm14
  6865. vpxor %xmm13, %xmm14, %xmm14
  6866. vpxor %xmm8, %xmm14, %xmm14
  6867. vpxor %xmm14, %xmm3, %xmm3
  6868. vmovdqa %xmm3, 48(%rsp)
  6869. # H ^ 5
  6870. # ghash_gfmul_red_avx
  6871. vpshufd $0x4e, %xmm0, %xmm9
  6872. vpshufd $0x4e, %xmm1, %xmm10
  6873. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm11
  6874. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm8
  6875. vpxor %xmm0, %xmm9, %xmm9
  6876. vpxor %xmm1, %xmm10, %xmm10
  6877. vpclmulqdq $0x00, %xmm10, %xmm9, %xmm9
  6878. vpxor %xmm8, %xmm9, %xmm9
  6879. vpxor %xmm11, %xmm9, %xmm9
  6880. vpslldq $8, %xmm9, %xmm10
  6881. vpsrldq $8, %xmm9, %xmm9
  6882. vpxor %xmm10, %xmm8, %xmm8
  6883. vpxor %xmm9, %xmm11, %xmm7
  6884. vpslld $31, %xmm8, %xmm12
  6885. vpslld $30, %xmm8, %xmm13
  6886. vpslld $25, %xmm8, %xmm14
  6887. vpxor %xmm13, %xmm12, %xmm12
  6888. vpxor %xmm14, %xmm12, %xmm12
  6889. vpsrldq $4, %xmm12, %xmm13
  6890. vpslldq $12, %xmm12, %xmm12
  6891. vpxor %xmm12, %xmm8, %xmm8
  6892. vpsrld $0x01, %xmm8, %xmm14
  6893. vpsrld $2, %xmm8, %xmm10
  6894. vpsrld $7, %xmm8, %xmm9
  6895. vpxor %xmm10, %xmm14, %xmm14
  6896. vpxor %xmm9, %xmm14, %xmm14
  6897. vpxor %xmm13, %xmm14, %xmm14
  6898. vpxor %xmm8, %xmm14, %xmm14
  6899. vpxor %xmm14, %xmm7, %xmm7
  6900. vmovdqa %xmm7, 64(%rsp)
  6901. # H ^ 6
  6902. vpclmulqdq $0x00, %xmm1, %xmm1, %xmm8
  6903. vpclmulqdq $0x11, %xmm1, %xmm1, %xmm7
  6904. vpslld $31, %xmm8, %xmm12
  6905. vpslld $30, %xmm8, %xmm13
  6906. vpslld $25, %xmm8, %xmm14
  6907. vpxor %xmm13, %xmm12, %xmm12
  6908. vpxor %xmm14, %xmm12, %xmm12
  6909. vpsrldq $4, %xmm12, %xmm13
  6910. vpslldq $12, %xmm12, %xmm12
  6911. vpxor %xmm12, %xmm8, %xmm8
  6912. vpsrld $0x01, %xmm8, %xmm14
  6913. vpsrld $2, %xmm8, %xmm10
  6914. vpsrld $7, %xmm8, %xmm9
  6915. vpxor %xmm10, %xmm14, %xmm14
  6916. vpxor %xmm9, %xmm14, %xmm14
  6917. vpxor %xmm13, %xmm14, %xmm14
  6918. vpxor %xmm8, %xmm14, %xmm14
  6919. vpxor %xmm14, %xmm7, %xmm7
  6920. vmovdqa %xmm7, 80(%rsp)
  6921. # H ^ 7
  6922. # ghash_gfmul_red_avx
  6923. vpshufd $0x4e, %xmm1, %xmm9
  6924. vpshufd $0x4e, %xmm3, %xmm10
  6925. vpclmulqdq $0x11, %xmm1, %xmm3, %xmm11
  6926. vpclmulqdq $0x00, %xmm1, %xmm3, %xmm8
  6927. vpxor %xmm1, %xmm9, %xmm9
  6928. vpxor %xmm3, %xmm10, %xmm10
  6929. vpclmulqdq $0x00, %xmm10, %xmm9, %xmm9
  6930. vpxor %xmm8, %xmm9, %xmm9
  6931. vpxor %xmm11, %xmm9, %xmm9
  6932. vpslldq $8, %xmm9, %xmm10
  6933. vpsrldq $8, %xmm9, %xmm9
  6934. vpxor %xmm10, %xmm8, %xmm8
  6935. vpxor %xmm9, %xmm11, %xmm7
  6936. vpslld $31, %xmm8, %xmm12
  6937. vpslld $30, %xmm8, %xmm13
  6938. vpslld $25, %xmm8, %xmm14
  6939. vpxor %xmm13, %xmm12, %xmm12
  6940. vpxor %xmm14, %xmm12, %xmm12
  6941. vpsrldq $4, %xmm12, %xmm13
  6942. vpslldq $12, %xmm12, %xmm12
  6943. vpxor %xmm12, %xmm8, %xmm8
  6944. vpsrld $0x01, %xmm8, %xmm14
  6945. vpsrld $2, %xmm8, %xmm10
  6946. vpsrld $7, %xmm8, %xmm9
  6947. vpxor %xmm10, %xmm14, %xmm14
  6948. vpxor %xmm9, %xmm14, %xmm14
  6949. vpxor %xmm13, %xmm14, %xmm14
  6950. vpxor %xmm8, %xmm14, %xmm14
  6951. vpxor %xmm14, %xmm7, %xmm7
  6952. vmovdqa %xmm7, 96(%rsp)
  6953. # H ^ 8
  6954. vpclmulqdq $0x00, %xmm3, %xmm3, %xmm8
  6955. vpclmulqdq $0x11, %xmm3, %xmm3, %xmm7
  6956. vpslld $31, %xmm8, %xmm12
  6957. vpslld $30, %xmm8, %xmm13
  6958. vpslld $25, %xmm8, %xmm14
  6959. vpxor %xmm13, %xmm12, %xmm12
  6960. vpxor %xmm14, %xmm12, %xmm12
  6961. vpsrldq $4, %xmm12, %xmm13
  6962. vpslldq $12, %xmm12, %xmm12
  6963. vpxor %xmm12, %xmm8, %xmm8
  6964. vpsrld $0x01, %xmm8, %xmm14
  6965. vpsrld $2, %xmm8, %xmm10
  6966. vpsrld $7, %xmm8, %xmm9
  6967. vpxor %xmm10, %xmm14, %xmm14
  6968. vpxor %xmm9, %xmm14, %xmm14
  6969. vpxor %xmm13, %xmm14, %xmm14
  6970. vpxor %xmm8, %xmm14, %xmm14
  6971. vpxor %xmm14, %xmm7, %xmm7
  6972. vmovdqa %xmm7, 112(%rsp)
  6973. # First 128 bytes of input
  6974. vmovdqa 128(%rsp), %xmm0
  6975. vmovdqa L_avx1_aes_gcm_bswap_epi64(%rip), %xmm1
  6976. vpshufb %xmm1, %xmm0, %xmm8
  6977. vpaddd L_avx1_aes_gcm_one(%rip), %xmm0, %xmm9
  6978. vpshufb %xmm1, %xmm9, %xmm9
  6979. vpaddd L_avx1_aes_gcm_two(%rip), %xmm0, %xmm10
  6980. vpshufb %xmm1, %xmm10, %xmm10
  6981. vpaddd L_avx1_aes_gcm_three(%rip), %xmm0, %xmm11
  6982. vpshufb %xmm1, %xmm11, %xmm11
  6983. vpaddd L_avx1_aes_gcm_four(%rip), %xmm0, %xmm12
  6984. vpshufb %xmm1, %xmm12, %xmm12
  6985. vpaddd L_avx1_aes_gcm_five(%rip), %xmm0, %xmm13
  6986. vpshufb %xmm1, %xmm13, %xmm13
  6987. vpaddd L_avx1_aes_gcm_six(%rip), %xmm0, %xmm14
  6988. vpshufb %xmm1, %xmm14, %xmm14
  6989. vpaddd L_avx1_aes_gcm_seven(%rip), %xmm0, %xmm15
  6990. vpshufb %xmm1, %xmm15, %xmm15
  6991. vpaddd L_avx1_aes_gcm_eight(%rip), %xmm0, %xmm0
  6992. vmovdqa (%r15), %xmm7
  6993. vmovdqa %xmm0, 128(%rsp)
  6994. vpxor %xmm7, %xmm8, %xmm8
  6995. vpxor %xmm7, %xmm9, %xmm9
  6996. vpxor %xmm7, %xmm10, %xmm10
  6997. vpxor %xmm7, %xmm11, %xmm11
  6998. vpxor %xmm7, %xmm12, %xmm12
  6999. vpxor %xmm7, %xmm13, %xmm13
  7000. vpxor %xmm7, %xmm14, %xmm14
  7001. vpxor %xmm7, %xmm15, %xmm15
  7002. vmovdqa 16(%r15), %xmm7
  7003. vaesenc %xmm7, %xmm8, %xmm8
  7004. vaesenc %xmm7, %xmm9, %xmm9
  7005. vaesenc %xmm7, %xmm10, %xmm10
  7006. vaesenc %xmm7, %xmm11, %xmm11
  7007. vaesenc %xmm7, %xmm12, %xmm12
  7008. vaesenc %xmm7, %xmm13, %xmm13
  7009. vaesenc %xmm7, %xmm14, %xmm14
  7010. vaesenc %xmm7, %xmm15, %xmm15
  7011. vmovdqa 32(%r15), %xmm7
  7012. vaesenc %xmm7, %xmm8, %xmm8
  7013. vaesenc %xmm7, %xmm9, %xmm9
  7014. vaesenc %xmm7, %xmm10, %xmm10
  7015. vaesenc %xmm7, %xmm11, %xmm11
  7016. vaesenc %xmm7, %xmm12, %xmm12
  7017. vaesenc %xmm7, %xmm13, %xmm13
  7018. vaesenc %xmm7, %xmm14, %xmm14
  7019. vaesenc %xmm7, %xmm15, %xmm15
  7020. vmovdqa 48(%r15), %xmm7
  7021. vaesenc %xmm7, %xmm8, %xmm8
  7022. vaesenc %xmm7, %xmm9, %xmm9
  7023. vaesenc %xmm7, %xmm10, %xmm10
  7024. vaesenc %xmm7, %xmm11, %xmm11
  7025. vaesenc %xmm7, %xmm12, %xmm12
  7026. vaesenc %xmm7, %xmm13, %xmm13
  7027. vaesenc %xmm7, %xmm14, %xmm14
  7028. vaesenc %xmm7, %xmm15, %xmm15
  7029. vmovdqa 64(%r15), %xmm7
  7030. vaesenc %xmm7, %xmm8, %xmm8
  7031. vaesenc %xmm7, %xmm9, %xmm9
  7032. vaesenc %xmm7, %xmm10, %xmm10
  7033. vaesenc %xmm7, %xmm11, %xmm11
  7034. vaesenc %xmm7, %xmm12, %xmm12
  7035. vaesenc %xmm7, %xmm13, %xmm13
  7036. vaesenc %xmm7, %xmm14, %xmm14
  7037. vaesenc %xmm7, %xmm15, %xmm15
  7038. vmovdqa 80(%r15), %xmm7
  7039. vaesenc %xmm7, %xmm8, %xmm8
  7040. vaesenc %xmm7, %xmm9, %xmm9
  7041. vaesenc %xmm7, %xmm10, %xmm10
  7042. vaesenc %xmm7, %xmm11, %xmm11
  7043. vaesenc %xmm7, %xmm12, %xmm12
  7044. vaesenc %xmm7, %xmm13, %xmm13
  7045. vaesenc %xmm7, %xmm14, %xmm14
  7046. vaesenc %xmm7, %xmm15, %xmm15
  7047. vmovdqa 96(%r15), %xmm7
  7048. vaesenc %xmm7, %xmm8, %xmm8
  7049. vaesenc %xmm7, %xmm9, %xmm9
  7050. vaesenc %xmm7, %xmm10, %xmm10
  7051. vaesenc %xmm7, %xmm11, %xmm11
  7052. vaesenc %xmm7, %xmm12, %xmm12
  7053. vaesenc %xmm7, %xmm13, %xmm13
  7054. vaesenc %xmm7, %xmm14, %xmm14
  7055. vaesenc %xmm7, %xmm15, %xmm15
  7056. vmovdqa 112(%r15), %xmm7
  7057. vaesenc %xmm7, %xmm8, %xmm8
  7058. vaesenc %xmm7, %xmm9, %xmm9
  7059. vaesenc %xmm7, %xmm10, %xmm10
  7060. vaesenc %xmm7, %xmm11, %xmm11
  7061. vaesenc %xmm7, %xmm12, %xmm12
  7062. vaesenc %xmm7, %xmm13, %xmm13
  7063. vaesenc %xmm7, %xmm14, %xmm14
  7064. vaesenc %xmm7, %xmm15, %xmm15
  7065. vmovdqa 128(%r15), %xmm7
  7066. vaesenc %xmm7, %xmm8, %xmm8
  7067. vaesenc %xmm7, %xmm9, %xmm9
  7068. vaesenc %xmm7, %xmm10, %xmm10
  7069. vaesenc %xmm7, %xmm11, %xmm11
  7070. vaesenc %xmm7, %xmm12, %xmm12
  7071. vaesenc %xmm7, %xmm13, %xmm13
  7072. vaesenc %xmm7, %xmm14, %xmm14
  7073. vaesenc %xmm7, %xmm15, %xmm15
  7074. vmovdqa 144(%r15), %xmm7
  7075. vaesenc %xmm7, %xmm8, %xmm8
  7076. vaesenc %xmm7, %xmm9, %xmm9
  7077. vaesenc %xmm7, %xmm10, %xmm10
  7078. vaesenc %xmm7, %xmm11, %xmm11
  7079. vaesenc %xmm7, %xmm12, %xmm12
  7080. vaesenc %xmm7, %xmm13, %xmm13
  7081. vaesenc %xmm7, %xmm14, %xmm14
  7082. vaesenc %xmm7, %xmm15, %xmm15
  7083. cmpl $11, %r10d
  7084. vmovdqa 160(%r15), %xmm7
  7085. jl L_AES_GCM_encrypt_avx1_aesenc_128_enc_done
  7086. vaesenc %xmm7, %xmm8, %xmm8
  7087. vaesenc %xmm7, %xmm9, %xmm9
  7088. vaesenc %xmm7, %xmm10, %xmm10
  7089. vaesenc %xmm7, %xmm11, %xmm11
  7090. vaesenc %xmm7, %xmm12, %xmm12
  7091. vaesenc %xmm7, %xmm13, %xmm13
  7092. vaesenc %xmm7, %xmm14, %xmm14
  7093. vaesenc %xmm7, %xmm15, %xmm15
  7094. vmovdqa 176(%r15), %xmm7
  7095. vaesenc %xmm7, %xmm8, %xmm8
  7096. vaesenc %xmm7, %xmm9, %xmm9
  7097. vaesenc %xmm7, %xmm10, %xmm10
  7098. vaesenc %xmm7, %xmm11, %xmm11
  7099. vaesenc %xmm7, %xmm12, %xmm12
  7100. vaesenc %xmm7, %xmm13, %xmm13
  7101. vaesenc %xmm7, %xmm14, %xmm14
  7102. vaesenc %xmm7, %xmm15, %xmm15
  7103. cmpl $13, %r10d
  7104. vmovdqa 192(%r15), %xmm7
  7105. jl L_AES_GCM_encrypt_avx1_aesenc_128_enc_done
  7106. vaesenc %xmm7, %xmm8, %xmm8
  7107. vaesenc %xmm7, %xmm9, %xmm9
  7108. vaesenc %xmm7, %xmm10, %xmm10
  7109. vaesenc %xmm7, %xmm11, %xmm11
  7110. vaesenc %xmm7, %xmm12, %xmm12
  7111. vaesenc %xmm7, %xmm13, %xmm13
  7112. vaesenc %xmm7, %xmm14, %xmm14
  7113. vaesenc %xmm7, %xmm15, %xmm15
  7114. vmovdqa 208(%r15), %xmm7
  7115. vaesenc %xmm7, %xmm8, %xmm8
  7116. vaesenc %xmm7, %xmm9, %xmm9
  7117. vaesenc %xmm7, %xmm10, %xmm10
  7118. vaesenc %xmm7, %xmm11, %xmm11
  7119. vaesenc %xmm7, %xmm12, %xmm12
  7120. vaesenc %xmm7, %xmm13, %xmm13
  7121. vaesenc %xmm7, %xmm14, %xmm14
  7122. vaesenc %xmm7, %xmm15, %xmm15
  7123. vmovdqa 224(%r15), %xmm7
  7124. L_AES_GCM_encrypt_avx1_aesenc_128_enc_done:
  7125. vaesenclast %xmm7, %xmm8, %xmm8
  7126. vaesenclast %xmm7, %xmm9, %xmm9
  7127. vmovdqu (%rdi), %xmm0
  7128. vmovdqu 16(%rdi), %xmm1
  7129. vpxor %xmm0, %xmm8, %xmm8
  7130. vpxor %xmm1, %xmm9, %xmm9
  7131. vmovdqu %xmm8, (%rsi)
  7132. vmovdqu %xmm9, 16(%rsi)
  7133. vaesenclast %xmm7, %xmm10, %xmm10
  7134. vaesenclast %xmm7, %xmm11, %xmm11
  7135. vmovdqu 32(%rdi), %xmm0
  7136. vmovdqu 48(%rdi), %xmm1
  7137. vpxor %xmm0, %xmm10, %xmm10
  7138. vpxor %xmm1, %xmm11, %xmm11
  7139. vmovdqu %xmm10, 32(%rsi)
  7140. vmovdqu %xmm11, 48(%rsi)
  7141. vaesenclast %xmm7, %xmm12, %xmm12
  7142. vaesenclast %xmm7, %xmm13, %xmm13
  7143. vmovdqu 64(%rdi), %xmm0
  7144. vmovdqu 80(%rdi), %xmm1
  7145. vpxor %xmm0, %xmm12, %xmm12
  7146. vpxor %xmm1, %xmm13, %xmm13
  7147. vmovdqu %xmm12, 64(%rsi)
  7148. vmovdqu %xmm13, 80(%rsi)
  7149. vaesenclast %xmm7, %xmm14, %xmm14
  7150. vaesenclast %xmm7, %xmm15, %xmm15
  7151. vmovdqu 96(%rdi), %xmm0
  7152. vmovdqu 112(%rdi), %xmm1
  7153. vpxor %xmm0, %xmm14, %xmm14
  7154. vpxor %xmm1, %xmm15, %xmm15
  7155. vmovdqu %xmm14, 96(%rsi)
  7156. vmovdqu %xmm15, 112(%rsi)
  7157. cmpl $0x80, %r13d
  7158. movl $0x80, %ebx
  7159. jle L_AES_GCM_encrypt_avx1_end_128
  7160. # More 128 bytes of input
  7161. L_AES_GCM_encrypt_avx1_ghash_128:
  7162. leaq (%rdi,%rbx,1), %rcx
  7163. leaq (%rsi,%rbx,1), %rdx
  7164. vmovdqa 128(%rsp), %xmm0
  7165. vmovdqa L_avx1_aes_gcm_bswap_epi64(%rip), %xmm1
  7166. vpshufb %xmm1, %xmm0, %xmm8
  7167. vpaddd L_avx1_aes_gcm_one(%rip), %xmm0, %xmm9
  7168. vpshufb %xmm1, %xmm9, %xmm9
  7169. vpaddd L_avx1_aes_gcm_two(%rip), %xmm0, %xmm10
  7170. vpshufb %xmm1, %xmm10, %xmm10
  7171. vpaddd L_avx1_aes_gcm_three(%rip), %xmm0, %xmm11
  7172. vpshufb %xmm1, %xmm11, %xmm11
  7173. vpaddd L_avx1_aes_gcm_four(%rip), %xmm0, %xmm12
  7174. vpshufb %xmm1, %xmm12, %xmm12
  7175. vpaddd L_avx1_aes_gcm_five(%rip), %xmm0, %xmm13
  7176. vpshufb %xmm1, %xmm13, %xmm13
  7177. vpaddd L_avx1_aes_gcm_six(%rip), %xmm0, %xmm14
  7178. vpshufb %xmm1, %xmm14, %xmm14
  7179. vpaddd L_avx1_aes_gcm_seven(%rip), %xmm0, %xmm15
  7180. vpshufb %xmm1, %xmm15, %xmm15
  7181. vpaddd L_avx1_aes_gcm_eight(%rip), %xmm0, %xmm0
  7182. vmovdqa (%r15), %xmm7
  7183. vmovdqa %xmm0, 128(%rsp)
  7184. vpxor %xmm7, %xmm8, %xmm8
  7185. vpxor %xmm7, %xmm9, %xmm9
  7186. vpxor %xmm7, %xmm10, %xmm10
  7187. vpxor %xmm7, %xmm11, %xmm11
  7188. vpxor %xmm7, %xmm12, %xmm12
  7189. vpxor %xmm7, %xmm13, %xmm13
  7190. vpxor %xmm7, %xmm14, %xmm14
  7191. vpxor %xmm7, %xmm15, %xmm15
  7192. vmovdqa 112(%rsp), %xmm7
  7193. vmovdqu -128(%rdx), %xmm0
  7194. vaesenc 16(%r15), %xmm8, %xmm8
  7195. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  7196. vpxor %xmm2, %xmm0, %xmm0
  7197. vpshufd $0x4e, %xmm7, %xmm1
  7198. vpshufd $0x4e, %xmm0, %xmm5
  7199. vpxor %xmm7, %xmm1, %xmm1
  7200. vpxor %xmm0, %xmm5, %xmm5
  7201. vpclmulqdq $0x11, %xmm7, %xmm0, %xmm3
  7202. vaesenc 16(%r15), %xmm9, %xmm9
  7203. vaesenc 16(%r15), %xmm10, %xmm10
  7204. vpclmulqdq $0x00, %xmm7, %xmm0, %xmm2
  7205. vaesenc 16(%r15), %xmm11, %xmm11
  7206. vaesenc 16(%r15), %xmm12, %xmm12
  7207. vpclmulqdq $0x00, %xmm5, %xmm1, %xmm1
  7208. vaesenc 16(%r15), %xmm13, %xmm13
  7209. vaesenc 16(%r15), %xmm14, %xmm14
  7210. vaesenc 16(%r15), %xmm15, %xmm15
  7211. vpxor %xmm2, %xmm1, %xmm1
  7212. vpxor %xmm3, %xmm1, %xmm1
  7213. vmovdqa 96(%rsp), %xmm7
  7214. vmovdqu -112(%rdx), %xmm0
  7215. vpshufd $0x4e, %xmm7, %xmm4
  7216. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  7217. vaesenc 32(%r15), %xmm8, %xmm8
  7218. vpxor %xmm7, %xmm4, %xmm4
  7219. vpshufd $0x4e, %xmm0, %xmm5
  7220. vpxor %xmm0, %xmm5, %xmm5
  7221. vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
  7222. vaesenc 32(%r15), %xmm9, %xmm9
  7223. vaesenc 32(%r15), %xmm10, %xmm10
  7224. vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
  7225. vaesenc 32(%r15), %xmm11, %xmm11
  7226. vaesenc 32(%r15), %xmm12, %xmm12
  7227. vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
  7228. vaesenc 32(%r15), %xmm13, %xmm13
  7229. vaesenc 32(%r15), %xmm14, %xmm14
  7230. vaesenc 32(%r15), %xmm15, %xmm15
  7231. vpxor %xmm7, %xmm1, %xmm1
  7232. vpxor %xmm7, %xmm2, %xmm2
  7233. vpxor %xmm6, %xmm1, %xmm1
  7234. vpxor %xmm6, %xmm3, %xmm3
  7235. vpxor %xmm4, %xmm1, %xmm1
  7236. vmovdqa 80(%rsp), %xmm7
  7237. vmovdqu -96(%rdx), %xmm0
  7238. vpshufd $0x4e, %xmm7, %xmm4
  7239. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  7240. vaesenc 48(%r15), %xmm8, %xmm8
  7241. vpxor %xmm7, %xmm4, %xmm4
  7242. vpshufd $0x4e, %xmm0, %xmm5
  7243. vpxor %xmm0, %xmm5, %xmm5
  7244. vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
  7245. vaesenc 48(%r15), %xmm9, %xmm9
  7246. vaesenc 48(%r15), %xmm10, %xmm10
  7247. vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
  7248. vaesenc 48(%r15), %xmm11, %xmm11
  7249. vaesenc 48(%r15), %xmm12, %xmm12
  7250. vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
  7251. vaesenc 48(%r15), %xmm13, %xmm13
  7252. vaesenc 48(%r15), %xmm14, %xmm14
  7253. vaesenc 48(%r15), %xmm15, %xmm15
  7254. vpxor %xmm7, %xmm1, %xmm1
  7255. vpxor %xmm7, %xmm2, %xmm2
  7256. vpxor %xmm6, %xmm1, %xmm1
  7257. vpxor %xmm6, %xmm3, %xmm3
  7258. vpxor %xmm4, %xmm1, %xmm1
  7259. vmovdqa 64(%rsp), %xmm7
  7260. vmovdqu -80(%rdx), %xmm0
  7261. vpshufd $0x4e, %xmm7, %xmm4
  7262. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  7263. vaesenc 64(%r15), %xmm8, %xmm8
  7264. vpxor %xmm7, %xmm4, %xmm4
  7265. vpshufd $0x4e, %xmm0, %xmm5
  7266. vpxor %xmm0, %xmm5, %xmm5
  7267. vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
  7268. vaesenc 64(%r15), %xmm9, %xmm9
  7269. vaesenc 64(%r15), %xmm10, %xmm10
  7270. vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
  7271. vaesenc 64(%r15), %xmm11, %xmm11
  7272. vaesenc 64(%r15), %xmm12, %xmm12
  7273. vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
  7274. vaesenc 64(%r15), %xmm13, %xmm13
  7275. vaesenc 64(%r15), %xmm14, %xmm14
  7276. vaesenc 64(%r15), %xmm15, %xmm15
  7277. vpxor %xmm7, %xmm1, %xmm1
  7278. vpxor %xmm7, %xmm2, %xmm2
  7279. vpxor %xmm6, %xmm1, %xmm1
  7280. vpxor %xmm6, %xmm3, %xmm3
  7281. vpxor %xmm4, %xmm1, %xmm1
  7282. vmovdqa 48(%rsp), %xmm7
  7283. vmovdqu -64(%rdx), %xmm0
  7284. vpshufd $0x4e, %xmm7, %xmm4
  7285. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  7286. vaesenc 80(%r15), %xmm8, %xmm8
  7287. vpxor %xmm7, %xmm4, %xmm4
  7288. vpshufd $0x4e, %xmm0, %xmm5
  7289. vpxor %xmm0, %xmm5, %xmm5
  7290. vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
  7291. vaesenc 80(%r15), %xmm9, %xmm9
  7292. vaesenc 80(%r15), %xmm10, %xmm10
  7293. vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
  7294. vaesenc 80(%r15), %xmm11, %xmm11
  7295. vaesenc 80(%r15), %xmm12, %xmm12
  7296. vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
  7297. vaesenc 80(%r15), %xmm13, %xmm13
  7298. vaesenc 80(%r15), %xmm14, %xmm14
  7299. vaesenc 80(%r15), %xmm15, %xmm15
  7300. vpxor %xmm7, %xmm1, %xmm1
  7301. vpxor %xmm7, %xmm2, %xmm2
  7302. vpxor %xmm6, %xmm1, %xmm1
  7303. vpxor %xmm6, %xmm3, %xmm3
  7304. vpxor %xmm4, %xmm1, %xmm1
  7305. vmovdqa 32(%rsp), %xmm7
  7306. vmovdqu -48(%rdx), %xmm0
  7307. vpshufd $0x4e, %xmm7, %xmm4
  7308. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  7309. vaesenc 96(%r15), %xmm8, %xmm8
  7310. vpxor %xmm7, %xmm4, %xmm4
  7311. vpshufd $0x4e, %xmm0, %xmm5
  7312. vpxor %xmm0, %xmm5, %xmm5
  7313. vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
  7314. vaesenc 96(%r15), %xmm9, %xmm9
  7315. vaesenc 96(%r15), %xmm10, %xmm10
  7316. vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
  7317. vaesenc 96(%r15), %xmm11, %xmm11
  7318. vaesenc 96(%r15), %xmm12, %xmm12
  7319. vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
  7320. vaesenc 96(%r15), %xmm13, %xmm13
  7321. vaesenc 96(%r15), %xmm14, %xmm14
  7322. vaesenc 96(%r15), %xmm15, %xmm15
  7323. vpxor %xmm7, %xmm1, %xmm1
  7324. vpxor %xmm7, %xmm2, %xmm2
  7325. vpxor %xmm6, %xmm1, %xmm1
  7326. vpxor %xmm6, %xmm3, %xmm3
  7327. vpxor %xmm4, %xmm1, %xmm1
  7328. vmovdqa 16(%rsp), %xmm7
  7329. vmovdqu -32(%rdx), %xmm0
  7330. vpshufd $0x4e, %xmm7, %xmm4
  7331. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  7332. vaesenc 112(%r15), %xmm8, %xmm8
  7333. vpxor %xmm7, %xmm4, %xmm4
  7334. vpshufd $0x4e, %xmm0, %xmm5
  7335. vpxor %xmm0, %xmm5, %xmm5
  7336. vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
  7337. vaesenc 112(%r15), %xmm9, %xmm9
  7338. vaesenc 112(%r15), %xmm10, %xmm10
  7339. vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
  7340. vaesenc 112(%r15), %xmm11, %xmm11
  7341. vaesenc 112(%r15), %xmm12, %xmm12
  7342. vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
  7343. vaesenc 112(%r15), %xmm13, %xmm13
  7344. vaesenc 112(%r15), %xmm14, %xmm14
  7345. vaesenc 112(%r15), %xmm15, %xmm15
  7346. vpxor %xmm7, %xmm1, %xmm1
  7347. vpxor %xmm7, %xmm2, %xmm2
  7348. vpxor %xmm6, %xmm1, %xmm1
  7349. vpxor %xmm6, %xmm3, %xmm3
  7350. vpxor %xmm4, %xmm1, %xmm1
  7351. vmovdqa (%rsp), %xmm7
  7352. vmovdqu -16(%rdx), %xmm0
  7353. vpshufd $0x4e, %xmm7, %xmm4
  7354. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  7355. vaesenc 128(%r15), %xmm8, %xmm8
  7356. vpxor %xmm7, %xmm4, %xmm4
  7357. vpshufd $0x4e, %xmm0, %xmm5
  7358. vpxor %xmm0, %xmm5, %xmm5
  7359. vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
  7360. vaesenc 128(%r15), %xmm9, %xmm9
  7361. vaesenc 128(%r15), %xmm10, %xmm10
  7362. vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
  7363. vaesenc 128(%r15), %xmm11, %xmm11
  7364. vaesenc 128(%r15), %xmm12, %xmm12
  7365. vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
  7366. vaesenc 128(%r15), %xmm13, %xmm13
  7367. vaesenc 128(%r15), %xmm14, %xmm14
  7368. vaesenc 128(%r15), %xmm15, %xmm15
  7369. vpxor %xmm7, %xmm1, %xmm1
  7370. vpxor %xmm7, %xmm2, %xmm2
  7371. vpxor %xmm6, %xmm1, %xmm1
  7372. vpxor %xmm6, %xmm3, %xmm3
  7373. vpxor %xmm4, %xmm1, %xmm1
  7374. vpslldq $8, %xmm1, %xmm5
  7375. vpsrldq $8, %xmm1, %xmm1
  7376. vaesenc 144(%r15), %xmm8, %xmm8
  7377. vpxor %xmm5, %xmm2, %xmm2
  7378. vpxor %xmm1, %xmm3, %xmm3
  7379. vaesenc 144(%r15), %xmm9, %xmm9
  7380. vpslld $31, %xmm2, %xmm7
  7381. vpslld $30, %xmm2, %xmm4
  7382. vpslld $25, %xmm2, %xmm5
  7383. vaesenc 144(%r15), %xmm10, %xmm10
  7384. vpxor %xmm4, %xmm7, %xmm7
  7385. vpxor %xmm5, %xmm7, %xmm7
  7386. vaesenc 144(%r15), %xmm11, %xmm11
  7387. vpsrldq $4, %xmm7, %xmm4
  7388. vpslldq $12, %xmm7, %xmm7
  7389. vaesenc 144(%r15), %xmm12, %xmm12
  7390. vpxor %xmm7, %xmm2, %xmm2
  7391. vpsrld $0x01, %xmm2, %xmm5
  7392. vaesenc 144(%r15), %xmm13, %xmm13
  7393. vpsrld $2, %xmm2, %xmm1
  7394. vpsrld $7, %xmm2, %xmm0
  7395. vaesenc 144(%r15), %xmm14, %xmm14
  7396. vpxor %xmm1, %xmm5, %xmm5
  7397. vpxor %xmm0, %xmm5, %xmm5
  7398. vaesenc 144(%r15), %xmm15, %xmm15
  7399. vpxor %xmm4, %xmm5, %xmm5
  7400. vpxor %xmm5, %xmm2, %xmm2
  7401. vpxor %xmm3, %xmm2, %xmm2
  7402. cmpl $11, %r10d
  7403. vmovdqa 160(%r15), %xmm7
  7404. jl L_AES_GCM_encrypt_avx1_aesenc_128_ghash_avx_done
  7405. vaesenc %xmm7, %xmm8, %xmm8
  7406. vaesenc %xmm7, %xmm9, %xmm9
  7407. vaesenc %xmm7, %xmm10, %xmm10
  7408. vaesenc %xmm7, %xmm11, %xmm11
  7409. vaesenc %xmm7, %xmm12, %xmm12
  7410. vaesenc %xmm7, %xmm13, %xmm13
  7411. vaesenc %xmm7, %xmm14, %xmm14
  7412. vaesenc %xmm7, %xmm15, %xmm15
  7413. vmovdqa 176(%r15), %xmm7
  7414. vaesenc %xmm7, %xmm8, %xmm8
  7415. vaesenc %xmm7, %xmm9, %xmm9
  7416. vaesenc %xmm7, %xmm10, %xmm10
  7417. vaesenc %xmm7, %xmm11, %xmm11
  7418. vaesenc %xmm7, %xmm12, %xmm12
  7419. vaesenc %xmm7, %xmm13, %xmm13
  7420. vaesenc %xmm7, %xmm14, %xmm14
  7421. vaesenc %xmm7, %xmm15, %xmm15
  7422. cmpl $13, %r10d
  7423. vmovdqa 192(%r15), %xmm7
  7424. jl L_AES_GCM_encrypt_avx1_aesenc_128_ghash_avx_done
  7425. vaesenc %xmm7, %xmm8, %xmm8
  7426. vaesenc %xmm7, %xmm9, %xmm9
  7427. vaesenc %xmm7, %xmm10, %xmm10
  7428. vaesenc %xmm7, %xmm11, %xmm11
  7429. vaesenc %xmm7, %xmm12, %xmm12
  7430. vaesenc %xmm7, %xmm13, %xmm13
  7431. vaesenc %xmm7, %xmm14, %xmm14
  7432. vaesenc %xmm7, %xmm15, %xmm15
  7433. vmovdqa 208(%r15), %xmm7
  7434. vaesenc %xmm7, %xmm8, %xmm8
  7435. vaesenc %xmm7, %xmm9, %xmm9
  7436. vaesenc %xmm7, %xmm10, %xmm10
  7437. vaesenc %xmm7, %xmm11, %xmm11
  7438. vaesenc %xmm7, %xmm12, %xmm12
  7439. vaesenc %xmm7, %xmm13, %xmm13
  7440. vaesenc %xmm7, %xmm14, %xmm14
  7441. vaesenc %xmm7, %xmm15, %xmm15
  7442. vmovdqa 224(%r15), %xmm7
  7443. L_AES_GCM_encrypt_avx1_aesenc_128_ghash_avx_done:
  7444. vaesenclast %xmm7, %xmm8, %xmm8
  7445. vaesenclast %xmm7, %xmm9, %xmm9
  7446. vmovdqu (%rcx), %xmm0
  7447. vmovdqu 16(%rcx), %xmm1
  7448. vpxor %xmm0, %xmm8, %xmm8
  7449. vpxor %xmm1, %xmm9, %xmm9
  7450. vmovdqu %xmm8, (%rdx)
  7451. vmovdqu %xmm9, 16(%rdx)
  7452. vaesenclast %xmm7, %xmm10, %xmm10
  7453. vaesenclast %xmm7, %xmm11, %xmm11
  7454. vmovdqu 32(%rcx), %xmm0
  7455. vmovdqu 48(%rcx), %xmm1
  7456. vpxor %xmm0, %xmm10, %xmm10
  7457. vpxor %xmm1, %xmm11, %xmm11
  7458. vmovdqu %xmm10, 32(%rdx)
  7459. vmovdqu %xmm11, 48(%rdx)
  7460. vaesenclast %xmm7, %xmm12, %xmm12
  7461. vaesenclast %xmm7, %xmm13, %xmm13
  7462. vmovdqu 64(%rcx), %xmm0
  7463. vmovdqu 80(%rcx), %xmm1
  7464. vpxor %xmm0, %xmm12, %xmm12
  7465. vpxor %xmm1, %xmm13, %xmm13
  7466. vmovdqu %xmm12, 64(%rdx)
  7467. vmovdqu %xmm13, 80(%rdx)
  7468. vaesenclast %xmm7, %xmm14, %xmm14
  7469. vaesenclast %xmm7, %xmm15, %xmm15
  7470. vmovdqu 96(%rcx), %xmm0
  7471. vmovdqu 112(%rcx), %xmm1
  7472. vpxor %xmm0, %xmm14, %xmm14
  7473. vpxor %xmm1, %xmm15, %xmm15
  7474. vmovdqu %xmm14, 96(%rdx)
  7475. vmovdqu %xmm15, 112(%rdx)
  7476. addl $0x80, %ebx
  7477. cmpl %r13d, %ebx
  7478. jl L_AES_GCM_encrypt_avx1_ghash_128
  7479. L_AES_GCM_encrypt_avx1_end_128:
  7480. vmovdqa L_avx1_aes_gcm_bswap_mask(%rip), %xmm4
  7481. vpshufb %xmm4, %xmm8, %xmm8
  7482. vpshufb %xmm4, %xmm9, %xmm9
  7483. vpshufb %xmm4, %xmm10, %xmm10
  7484. vpshufb %xmm4, %xmm11, %xmm11
  7485. vpxor %xmm2, %xmm8, %xmm8
  7486. vpshufb %xmm4, %xmm12, %xmm12
  7487. vpshufb %xmm4, %xmm13, %xmm13
  7488. vpshufb %xmm4, %xmm14, %xmm14
  7489. vpshufb %xmm4, %xmm15, %xmm15
  7490. vmovdqa (%rsp), %xmm7
  7491. vmovdqa 16(%rsp), %xmm5
  7492. # ghash_gfmul_avx
  7493. vpshufd $0x4e, %xmm15, %xmm1
  7494. vpshufd $0x4e, %xmm7, %xmm2
  7495. vpclmulqdq $0x11, %xmm15, %xmm7, %xmm3
  7496. vpclmulqdq $0x00, %xmm15, %xmm7, %xmm0
  7497. vpxor %xmm15, %xmm1, %xmm1
  7498. vpxor %xmm7, %xmm2, %xmm2
  7499. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
  7500. vpxor %xmm0, %xmm1, %xmm1
  7501. vpxor %xmm3, %xmm1, %xmm1
  7502. vmovdqa %xmm0, %xmm4
  7503. vmovdqa %xmm3, %xmm6
  7504. vpslldq $8, %xmm1, %xmm2
  7505. vpsrldq $8, %xmm1, %xmm1
  7506. vpxor %xmm2, %xmm4, %xmm4
  7507. vpxor %xmm1, %xmm6, %xmm6
  7508. # ghash_gfmul_xor_avx
  7509. vpshufd $0x4e, %xmm14, %xmm1
  7510. vpshufd $0x4e, %xmm5, %xmm2
  7511. vpclmulqdq $0x11, %xmm14, %xmm5, %xmm3
  7512. vpclmulqdq $0x00, %xmm14, %xmm5, %xmm0
  7513. vpxor %xmm14, %xmm1, %xmm1
  7514. vpxor %xmm5, %xmm2, %xmm2
  7515. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
  7516. vpxor %xmm0, %xmm1, %xmm1
  7517. vpxor %xmm3, %xmm1, %xmm1
  7518. vpxor %xmm0, %xmm4, %xmm4
  7519. vpxor %xmm3, %xmm6, %xmm6
  7520. vpslldq $8, %xmm1, %xmm2
  7521. vpsrldq $8, %xmm1, %xmm1
  7522. vpxor %xmm2, %xmm4, %xmm4
  7523. vpxor %xmm1, %xmm6, %xmm6
  7524. vmovdqa 32(%rsp), %xmm7
  7525. vmovdqa 48(%rsp), %xmm5
  7526. # ghash_gfmul_xor_avx
  7527. vpshufd $0x4e, %xmm13, %xmm1
  7528. vpshufd $0x4e, %xmm7, %xmm2
  7529. vpclmulqdq $0x11, %xmm13, %xmm7, %xmm3
  7530. vpclmulqdq $0x00, %xmm13, %xmm7, %xmm0
  7531. vpxor %xmm13, %xmm1, %xmm1
  7532. vpxor %xmm7, %xmm2, %xmm2
  7533. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
  7534. vpxor %xmm0, %xmm1, %xmm1
  7535. vpxor %xmm3, %xmm1, %xmm1
  7536. vpxor %xmm0, %xmm4, %xmm4
  7537. vpxor %xmm3, %xmm6, %xmm6
  7538. vpslldq $8, %xmm1, %xmm2
  7539. vpsrldq $8, %xmm1, %xmm1
  7540. vpxor %xmm2, %xmm4, %xmm4
  7541. vpxor %xmm1, %xmm6, %xmm6
  7542. # ghash_gfmul_xor_avx
  7543. vpshufd $0x4e, %xmm12, %xmm1
  7544. vpshufd $0x4e, %xmm5, %xmm2
  7545. vpclmulqdq $0x11, %xmm12, %xmm5, %xmm3
  7546. vpclmulqdq $0x00, %xmm12, %xmm5, %xmm0
  7547. vpxor %xmm12, %xmm1, %xmm1
  7548. vpxor %xmm5, %xmm2, %xmm2
  7549. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
  7550. vpxor %xmm0, %xmm1, %xmm1
  7551. vpxor %xmm3, %xmm1, %xmm1
  7552. vpxor %xmm0, %xmm4, %xmm4
  7553. vpxor %xmm3, %xmm6, %xmm6
  7554. vpslldq $8, %xmm1, %xmm2
  7555. vpsrldq $8, %xmm1, %xmm1
  7556. vpxor %xmm2, %xmm4, %xmm4
  7557. vpxor %xmm1, %xmm6, %xmm6
  7558. vmovdqa 64(%rsp), %xmm7
  7559. vmovdqa 80(%rsp), %xmm5
  7560. # ghash_gfmul_xor_avx
  7561. vpshufd $0x4e, %xmm11, %xmm1
  7562. vpshufd $0x4e, %xmm7, %xmm2
  7563. vpclmulqdq $0x11, %xmm11, %xmm7, %xmm3
  7564. vpclmulqdq $0x00, %xmm11, %xmm7, %xmm0
  7565. vpxor %xmm11, %xmm1, %xmm1
  7566. vpxor %xmm7, %xmm2, %xmm2
  7567. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
  7568. vpxor %xmm0, %xmm1, %xmm1
  7569. vpxor %xmm3, %xmm1, %xmm1
  7570. vpxor %xmm0, %xmm4, %xmm4
  7571. vpxor %xmm3, %xmm6, %xmm6
  7572. vpslldq $8, %xmm1, %xmm2
  7573. vpsrldq $8, %xmm1, %xmm1
  7574. vpxor %xmm2, %xmm4, %xmm4
  7575. vpxor %xmm1, %xmm6, %xmm6
  7576. # ghash_gfmul_xor_avx
  7577. vpshufd $0x4e, %xmm10, %xmm1
  7578. vpshufd $0x4e, %xmm5, %xmm2
  7579. vpclmulqdq $0x11, %xmm10, %xmm5, %xmm3
  7580. vpclmulqdq $0x00, %xmm10, %xmm5, %xmm0
  7581. vpxor %xmm10, %xmm1, %xmm1
  7582. vpxor %xmm5, %xmm2, %xmm2
  7583. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
  7584. vpxor %xmm0, %xmm1, %xmm1
  7585. vpxor %xmm3, %xmm1, %xmm1
  7586. vpxor %xmm0, %xmm4, %xmm4
  7587. vpxor %xmm3, %xmm6, %xmm6
  7588. vpslldq $8, %xmm1, %xmm2
  7589. vpsrldq $8, %xmm1, %xmm1
  7590. vpxor %xmm2, %xmm4, %xmm4
  7591. vpxor %xmm1, %xmm6, %xmm6
  7592. vmovdqa 96(%rsp), %xmm7
  7593. vmovdqa 112(%rsp), %xmm5
  7594. # ghash_gfmul_xor_avx
  7595. vpshufd $0x4e, %xmm9, %xmm1
  7596. vpshufd $0x4e, %xmm7, %xmm2
  7597. vpclmulqdq $0x11, %xmm9, %xmm7, %xmm3
  7598. vpclmulqdq $0x00, %xmm9, %xmm7, %xmm0
  7599. vpxor %xmm9, %xmm1, %xmm1
  7600. vpxor %xmm7, %xmm2, %xmm2
  7601. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
  7602. vpxor %xmm0, %xmm1, %xmm1
  7603. vpxor %xmm3, %xmm1, %xmm1
  7604. vpxor %xmm0, %xmm4, %xmm4
  7605. vpxor %xmm3, %xmm6, %xmm6
  7606. vpslldq $8, %xmm1, %xmm2
  7607. vpsrldq $8, %xmm1, %xmm1
  7608. vpxor %xmm2, %xmm4, %xmm4
  7609. vpxor %xmm1, %xmm6, %xmm6
  7610. # ghash_gfmul_xor_avx
  7611. vpshufd $0x4e, %xmm8, %xmm1
  7612. vpshufd $0x4e, %xmm5, %xmm2
  7613. vpclmulqdq $0x11, %xmm8, %xmm5, %xmm3
  7614. vpclmulqdq $0x00, %xmm8, %xmm5, %xmm0
  7615. vpxor %xmm8, %xmm1, %xmm1
  7616. vpxor %xmm5, %xmm2, %xmm2
  7617. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
  7618. vpxor %xmm0, %xmm1, %xmm1
  7619. vpxor %xmm3, %xmm1, %xmm1
  7620. vpxor %xmm0, %xmm4, %xmm4
  7621. vpxor %xmm3, %xmm6, %xmm6
  7622. vpslldq $8, %xmm1, %xmm2
  7623. vpsrldq $8, %xmm1, %xmm1
  7624. vpxor %xmm2, %xmm4, %xmm4
  7625. vpxor %xmm1, %xmm6, %xmm6
  7626. vpslld $31, %xmm4, %xmm0
  7627. vpslld $30, %xmm4, %xmm1
  7628. vpslld $25, %xmm4, %xmm2
  7629. vpxor %xmm1, %xmm0, %xmm0
  7630. vpxor %xmm2, %xmm0, %xmm0
  7631. vmovdqa %xmm0, %xmm1
  7632. vpsrldq $4, %xmm1, %xmm1
  7633. vpslldq $12, %xmm0, %xmm0
  7634. vpxor %xmm0, %xmm4, %xmm4
  7635. vpsrld $0x01, %xmm4, %xmm2
  7636. vpsrld $2, %xmm4, %xmm3
  7637. vpsrld $7, %xmm4, %xmm0
  7638. vpxor %xmm3, %xmm2, %xmm2
  7639. vpxor %xmm0, %xmm2, %xmm2
  7640. vpxor %xmm1, %xmm2, %xmm2
  7641. vpxor %xmm4, %xmm2, %xmm2
  7642. vpxor %xmm2, %xmm6, %xmm6
  7643. vmovdqa (%rsp), %xmm5
  7644. L_AES_GCM_encrypt_avx1_done_128:
  7645. movl %r9d, %edx
  7646. cmpl %edx, %ebx
  7647. jge L_AES_GCM_encrypt_avx1_done_enc
  7648. movl %r9d, %r13d
  7649. andl $0xfffffff0, %r13d
  7650. cmpl %r13d, %ebx
  7651. jge L_AES_GCM_encrypt_avx1_last_block_done
  7652. vmovdqa 128(%rsp), %xmm9
  7653. vpshufb L_avx1_aes_gcm_bswap_epi64(%rip), %xmm9, %xmm8
  7654. vpaddd L_avx1_aes_gcm_one(%rip), %xmm9, %xmm9
  7655. vmovdqa %xmm9, 128(%rsp)
  7656. vpxor (%r15), %xmm8, %xmm8
  7657. vaesenc 16(%r15), %xmm8, %xmm8
  7658. vaesenc 32(%r15), %xmm8, %xmm8
  7659. vaesenc 48(%r15), %xmm8, %xmm8
  7660. vaesenc 64(%r15), %xmm8, %xmm8
  7661. vaesenc 80(%r15), %xmm8, %xmm8
  7662. vaesenc 96(%r15), %xmm8, %xmm8
  7663. vaesenc 112(%r15), %xmm8, %xmm8
  7664. vaesenc 128(%r15), %xmm8, %xmm8
  7665. vaesenc 144(%r15), %xmm8, %xmm8
  7666. cmpl $11, %r10d
  7667. vmovdqa 160(%r15), %xmm9
  7668. jl L_AES_GCM_encrypt_avx1_aesenc_block_last
  7669. vaesenc %xmm9, %xmm8, %xmm8
  7670. vaesenc 176(%r15), %xmm8, %xmm8
  7671. cmpl $13, %r10d
  7672. vmovdqa 192(%r15), %xmm9
  7673. jl L_AES_GCM_encrypt_avx1_aesenc_block_last
  7674. vaesenc %xmm9, %xmm8, %xmm8
  7675. vaesenc 208(%r15), %xmm8, %xmm8
  7676. vmovdqa 224(%r15), %xmm9
  7677. L_AES_GCM_encrypt_avx1_aesenc_block_last:
  7678. vaesenclast %xmm9, %xmm8, %xmm8
  7679. vmovdqu (%rdi,%rbx,1), %xmm9
  7680. vpxor %xmm9, %xmm8, %xmm8
  7681. vmovdqu %xmm8, (%rsi,%rbx,1)
  7682. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm8, %xmm8
  7683. vpxor %xmm8, %xmm6, %xmm6
  7684. addl $16, %ebx
  7685. cmpl %r13d, %ebx
  7686. jge L_AES_GCM_encrypt_avx1_last_block_ghash
  7687. L_AES_GCM_encrypt_avx1_last_block_start:
  7688. vmovdqu (%rdi,%rbx,1), %xmm13
  7689. vmovdqa 128(%rsp), %xmm9
  7690. vpshufb L_avx1_aes_gcm_bswap_epi64(%rip), %xmm9, %xmm8
  7691. vpaddd L_avx1_aes_gcm_one(%rip), %xmm9, %xmm9
  7692. vmovdqa %xmm9, 128(%rsp)
  7693. vpxor (%r15), %xmm8, %xmm8
  7694. vpclmulqdq $16, %xmm5, %xmm6, %xmm10
  7695. vaesenc 16(%r15), %xmm8, %xmm8
  7696. vaesenc 32(%r15), %xmm8, %xmm8
  7697. vpclmulqdq $0x01, %xmm5, %xmm6, %xmm11
  7698. vaesenc 48(%r15), %xmm8, %xmm8
  7699. vaesenc 64(%r15), %xmm8, %xmm8
  7700. vpclmulqdq $0x00, %xmm5, %xmm6, %xmm12
  7701. vaesenc 80(%r15), %xmm8, %xmm8
  7702. vpclmulqdq $0x11, %xmm5, %xmm6, %xmm1
  7703. vaesenc 96(%r15), %xmm8, %xmm8
  7704. vpxor %xmm11, %xmm10, %xmm10
  7705. vpslldq $8, %xmm10, %xmm2
  7706. vpsrldq $8, %xmm10, %xmm10
  7707. vaesenc 112(%r15), %xmm8, %xmm8
  7708. vpxor %xmm12, %xmm2, %xmm2
  7709. vpxor %xmm10, %xmm1, %xmm3
  7710. vmovdqa L_avx1_aes_gcm_mod2_128(%rip), %xmm0
  7711. vpclmulqdq $16, %xmm0, %xmm2, %xmm11
  7712. vaesenc 128(%r15), %xmm8, %xmm8
  7713. vpshufd $0x4e, %xmm2, %xmm10
  7714. vpxor %xmm11, %xmm10, %xmm10
  7715. vpclmulqdq $16, %xmm0, %xmm10, %xmm11
  7716. vaesenc 144(%r15), %xmm8, %xmm8
  7717. vpshufd $0x4e, %xmm10, %xmm10
  7718. vpxor %xmm11, %xmm10, %xmm10
  7719. vpxor %xmm3, %xmm10, %xmm6
  7720. cmpl $11, %r10d
  7721. vmovdqa 160(%r15), %xmm9
  7722. jl L_AES_GCM_encrypt_avx1_aesenc_gfmul_last
  7723. vaesenc %xmm9, %xmm8, %xmm8
  7724. vaesenc 176(%r15), %xmm8, %xmm8
  7725. cmpl $13, %r10d
  7726. vmovdqa 192(%r15), %xmm9
  7727. jl L_AES_GCM_encrypt_avx1_aesenc_gfmul_last
  7728. vaesenc %xmm9, %xmm8, %xmm8
  7729. vaesenc 208(%r15), %xmm8, %xmm8
  7730. vmovdqa 224(%r15), %xmm9
  7731. L_AES_GCM_encrypt_avx1_aesenc_gfmul_last:
  7732. vaesenclast %xmm9, %xmm8, %xmm8
  7733. vmovdqa %xmm13, %xmm0
  7734. vpxor %xmm0, %xmm8, %xmm8
  7735. vmovdqu %xmm8, (%rsi,%rbx,1)
  7736. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm8, %xmm8
  7737. addl $16, %ebx
  7738. vpxor %xmm8, %xmm6, %xmm6
  7739. cmpl %r13d, %ebx
  7740. jl L_AES_GCM_encrypt_avx1_last_block_start
  7741. L_AES_GCM_encrypt_avx1_last_block_ghash:
  7742. # ghash_gfmul_red_avx
  7743. vpshufd $0x4e, %xmm5, %xmm9
  7744. vpshufd $0x4e, %xmm6, %xmm10
  7745. vpclmulqdq $0x11, %xmm5, %xmm6, %xmm11
  7746. vpclmulqdq $0x00, %xmm5, %xmm6, %xmm8
  7747. vpxor %xmm5, %xmm9, %xmm9
  7748. vpxor %xmm6, %xmm10, %xmm10
  7749. vpclmulqdq $0x00, %xmm10, %xmm9, %xmm9
  7750. vpxor %xmm8, %xmm9, %xmm9
  7751. vpxor %xmm11, %xmm9, %xmm9
  7752. vpslldq $8, %xmm9, %xmm10
  7753. vpsrldq $8, %xmm9, %xmm9
  7754. vpxor %xmm10, %xmm8, %xmm8
  7755. vpxor %xmm9, %xmm11, %xmm6
  7756. vpslld $31, %xmm8, %xmm12
  7757. vpslld $30, %xmm8, %xmm13
  7758. vpslld $25, %xmm8, %xmm14
  7759. vpxor %xmm13, %xmm12, %xmm12
  7760. vpxor %xmm14, %xmm12, %xmm12
  7761. vpsrldq $4, %xmm12, %xmm13
  7762. vpslldq $12, %xmm12, %xmm12
  7763. vpxor %xmm12, %xmm8, %xmm8
  7764. vpsrld $0x01, %xmm8, %xmm14
  7765. vpsrld $2, %xmm8, %xmm10
  7766. vpsrld $7, %xmm8, %xmm9
  7767. vpxor %xmm10, %xmm14, %xmm14
  7768. vpxor %xmm9, %xmm14, %xmm14
  7769. vpxor %xmm13, %xmm14, %xmm14
  7770. vpxor %xmm8, %xmm14, %xmm14
  7771. vpxor %xmm14, %xmm6, %xmm6
  7772. L_AES_GCM_encrypt_avx1_last_block_done:
  7773. movl %r9d, %ecx
  7774. movl %ecx, %edx
  7775. andl $15, %ecx
  7776. jz L_AES_GCM_encrypt_avx1_aesenc_last15_enc_avx_done
  7777. vmovdqa 128(%rsp), %xmm4
  7778. vpshufb L_avx1_aes_gcm_bswap_epi64(%rip), %xmm4, %xmm4
  7779. vpxor (%r15), %xmm4, %xmm4
  7780. vaesenc 16(%r15), %xmm4, %xmm4
  7781. vaesenc 32(%r15), %xmm4, %xmm4
  7782. vaesenc 48(%r15), %xmm4, %xmm4
  7783. vaesenc 64(%r15), %xmm4, %xmm4
  7784. vaesenc 80(%r15), %xmm4, %xmm4
  7785. vaesenc 96(%r15), %xmm4, %xmm4
  7786. vaesenc 112(%r15), %xmm4, %xmm4
  7787. vaesenc 128(%r15), %xmm4, %xmm4
  7788. vaesenc 144(%r15), %xmm4, %xmm4
  7789. cmpl $11, %r10d
  7790. vmovdqa 160(%r15), %xmm9
  7791. jl L_AES_GCM_encrypt_avx1_aesenc_last15_enc_avx_aesenc_avx_last
  7792. vaesenc %xmm9, %xmm4, %xmm4
  7793. vaesenc 176(%r15), %xmm4, %xmm4
  7794. cmpl $13, %r10d
  7795. vmovdqa 192(%r15), %xmm9
  7796. jl L_AES_GCM_encrypt_avx1_aesenc_last15_enc_avx_aesenc_avx_last
  7797. vaesenc %xmm9, %xmm4, %xmm4
  7798. vaesenc 208(%r15), %xmm4, %xmm4
  7799. vmovdqa 224(%r15), %xmm9
  7800. L_AES_GCM_encrypt_avx1_aesenc_last15_enc_avx_aesenc_avx_last:
  7801. vaesenclast %xmm9, %xmm4, %xmm4
  7802. subq $16, %rsp
  7803. xorl %ecx, %ecx
  7804. vmovdqu %xmm4, (%rsp)
  7805. L_AES_GCM_encrypt_avx1_aesenc_last15_enc_avx_loop:
  7806. movzbl (%rdi,%rbx,1), %r13d
  7807. xorb (%rsp,%rcx,1), %r13b
  7808. movb %r13b, (%rsi,%rbx,1)
  7809. movb %r13b, (%rsp,%rcx,1)
  7810. incl %ebx
  7811. incl %ecx
  7812. cmpl %edx, %ebx
  7813. jl L_AES_GCM_encrypt_avx1_aesenc_last15_enc_avx_loop
  7814. xorq %r13, %r13
  7815. cmpl $16, %ecx
  7816. je L_AES_GCM_encrypt_avx1_aesenc_last15_enc_avx_finish_enc
  7817. L_AES_GCM_encrypt_avx1_aesenc_last15_enc_avx_byte_loop:
  7818. movb %r13b, (%rsp,%rcx,1)
  7819. incl %ecx
  7820. cmpl $16, %ecx
  7821. jl L_AES_GCM_encrypt_avx1_aesenc_last15_enc_avx_byte_loop
  7822. L_AES_GCM_encrypt_avx1_aesenc_last15_enc_avx_finish_enc:
  7823. vmovdqu (%rsp), %xmm4
  7824. addq $16, %rsp
  7825. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm4, %xmm4
  7826. vpxor %xmm4, %xmm6, %xmm6
  7827. # ghash_gfmul_red_avx
  7828. vpshufd $0x4e, %xmm5, %xmm9
  7829. vpshufd $0x4e, %xmm6, %xmm10
  7830. vpclmulqdq $0x11, %xmm5, %xmm6, %xmm11
  7831. vpclmulqdq $0x00, %xmm5, %xmm6, %xmm8
  7832. vpxor %xmm5, %xmm9, %xmm9
  7833. vpxor %xmm6, %xmm10, %xmm10
  7834. vpclmulqdq $0x00, %xmm10, %xmm9, %xmm9
  7835. vpxor %xmm8, %xmm9, %xmm9
  7836. vpxor %xmm11, %xmm9, %xmm9
  7837. vpslldq $8, %xmm9, %xmm10
  7838. vpsrldq $8, %xmm9, %xmm9
  7839. vpxor %xmm10, %xmm8, %xmm8
  7840. vpxor %xmm9, %xmm11, %xmm6
  7841. vpslld $31, %xmm8, %xmm12
  7842. vpslld $30, %xmm8, %xmm13
  7843. vpslld $25, %xmm8, %xmm14
  7844. vpxor %xmm13, %xmm12, %xmm12
  7845. vpxor %xmm14, %xmm12, %xmm12
  7846. vpsrldq $4, %xmm12, %xmm13
  7847. vpslldq $12, %xmm12, %xmm12
  7848. vpxor %xmm12, %xmm8, %xmm8
  7849. vpsrld $0x01, %xmm8, %xmm14
  7850. vpsrld $2, %xmm8, %xmm10
  7851. vpsrld $7, %xmm8, %xmm9
  7852. vpxor %xmm10, %xmm14, %xmm14
  7853. vpxor %xmm9, %xmm14, %xmm14
  7854. vpxor %xmm13, %xmm14, %xmm14
  7855. vpxor %xmm8, %xmm14, %xmm14
  7856. vpxor %xmm14, %xmm6, %xmm6
  7857. L_AES_GCM_encrypt_avx1_aesenc_last15_enc_avx_done:
  7858. L_AES_GCM_encrypt_avx1_done_enc:
  7859. movl %r9d, %edx
  7860. movl %r11d, %ecx
  7861. shlq $3, %rdx
  7862. shlq $3, %rcx
  7863. vpinsrq $0x00, %rdx, %xmm0, %xmm0
  7864. vpinsrq $0x01, %rcx, %xmm0, %xmm0
  7865. vpxor %xmm0, %xmm6, %xmm6
  7866. # ghash_gfmul_red_avx
  7867. vpshufd $0x4e, %xmm5, %xmm9
  7868. vpshufd $0x4e, %xmm6, %xmm10
  7869. vpclmulqdq $0x11, %xmm5, %xmm6, %xmm11
  7870. vpclmulqdq $0x00, %xmm5, %xmm6, %xmm8
  7871. vpxor %xmm5, %xmm9, %xmm9
  7872. vpxor %xmm6, %xmm10, %xmm10
  7873. vpclmulqdq $0x00, %xmm10, %xmm9, %xmm9
  7874. vpxor %xmm8, %xmm9, %xmm9
  7875. vpxor %xmm11, %xmm9, %xmm9
  7876. vpslldq $8, %xmm9, %xmm10
  7877. vpsrldq $8, %xmm9, %xmm9
  7878. vpxor %xmm10, %xmm8, %xmm8
  7879. vpxor %xmm9, %xmm11, %xmm6
  7880. vpslld $31, %xmm8, %xmm12
  7881. vpslld $30, %xmm8, %xmm13
  7882. vpslld $25, %xmm8, %xmm14
  7883. vpxor %xmm13, %xmm12, %xmm12
  7884. vpxor %xmm14, %xmm12, %xmm12
  7885. vpsrldq $4, %xmm12, %xmm13
  7886. vpslldq $12, %xmm12, %xmm12
  7887. vpxor %xmm12, %xmm8, %xmm8
  7888. vpsrld $0x01, %xmm8, %xmm14
  7889. vpsrld $2, %xmm8, %xmm10
  7890. vpsrld $7, %xmm8, %xmm9
  7891. vpxor %xmm10, %xmm14, %xmm14
  7892. vpxor %xmm9, %xmm14, %xmm14
  7893. vpxor %xmm13, %xmm14, %xmm14
  7894. vpxor %xmm8, %xmm14, %xmm14
  7895. vpxor %xmm14, %xmm6, %xmm6
  7896. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm6, %xmm6
  7897. vpxor 144(%rsp), %xmm6, %xmm0
  7898. cmpl $16, %r14d
  7899. je L_AES_GCM_encrypt_avx1_store_tag_16
  7900. xorq %rcx, %rcx
  7901. vmovdqu %xmm0, (%rsp)
  7902. L_AES_GCM_encrypt_avx1_store_tag_loop:
  7903. movzbl (%rsp,%rcx,1), %r13d
  7904. movb %r13b, (%r8,%rcx,1)
  7905. incl %ecx
  7906. cmpl %r14d, %ecx
  7907. jne L_AES_GCM_encrypt_avx1_store_tag_loop
  7908. jmp L_AES_GCM_encrypt_avx1_store_tag_done
  7909. L_AES_GCM_encrypt_avx1_store_tag_16:
  7910. vmovdqu %xmm0, (%r8)
  7911. L_AES_GCM_encrypt_avx1_store_tag_done:
  7912. vzeroupper
  7913. addq $0xa0, %rsp
  7914. popq %r15
  7915. popq %r14
  7916. popq %rbx
  7917. popq %r12
  7918. popq %r13
  7919. repz retq
  7920. #ifndef __APPLE__
  7921. .size AES_GCM_encrypt_avx1,.-AES_GCM_encrypt_avx1
  7922. #endif /* __APPLE__ */
  7923. #ifndef __APPLE__
  7924. .text
  7925. .globl AES_GCM_decrypt_avx1
  7926. .type AES_GCM_decrypt_avx1,@function
  7927. .align 16
  7928. AES_GCM_decrypt_avx1:
  7929. #else
  7930. .section __TEXT,__text
  7931. .globl _AES_GCM_decrypt_avx1
  7932. .p2align 4
  7933. _AES_GCM_decrypt_avx1:
  7934. #endif /* __APPLE__ */
  7935. pushq %r13
  7936. pushq %r12
  7937. pushq %rbx
  7938. pushq %r14
  7939. pushq %r15
  7940. pushq %rbp
  7941. movq %rdx, %r12
  7942. movq %rcx, %rax
  7943. movl 56(%rsp), %r11d
  7944. movl 64(%rsp), %ebx
  7945. movl 72(%rsp), %r14d
  7946. movq 80(%rsp), %r15
  7947. movl 88(%rsp), %r10d
  7948. movq 96(%rsp), %rbp
  7949. subq $0xa8, %rsp
  7950. vpxor %xmm4, %xmm4, %xmm4
  7951. vpxor %xmm6, %xmm6, %xmm6
  7952. cmpl $12, %ebx
  7953. movl %ebx, %edx
  7954. jne L_AES_GCM_decrypt_avx1_iv_not_12
  7955. # # Calculate values when IV is 12 bytes
  7956. # Set counter based on IV
  7957. movl $0x1000000, %ecx
  7958. vpinsrq $0x00, (%rax), %xmm4, %xmm4
  7959. vpinsrd $2, 8(%rax), %xmm4, %xmm4
  7960. vpinsrd $3, %ecx, %xmm4, %xmm4
  7961. # H = Encrypt X(=0) and T = Encrypt counter
  7962. vmovdqa (%r15), %xmm5
  7963. vpxor %xmm5, %xmm4, %xmm1
  7964. vmovdqa 16(%r15), %xmm7
  7965. vaesenc %xmm7, %xmm5, %xmm5
  7966. vaesenc %xmm7, %xmm1, %xmm1
  7967. vmovdqa 32(%r15), %xmm7
  7968. vaesenc %xmm7, %xmm5, %xmm5
  7969. vaesenc %xmm7, %xmm1, %xmm1
  7970. vmovdqa 48(%r15), %xmm7
  7971. vaesenc %xmm7, %xmm5, %xmm5
  7972. vaesenc %xmm7, %xmm1, %xmm1
  7973. vmovdqa 64(%r15), %xmm7
  7974. vaesenc %xmm7, %xmm5, %xmm5
  7975. vaesenc %xmm7, %xmm1, %xmm1
  7976. vmovdqa 80(%r15), %xmm7
  7977. vaesenc %xmm7, %xmm5, %xmm5
  7978. vaesenc %xmm7, %xmm1, %xmm1
  7979. vmovdqa 96(%r15), %xmm7
  7980. vaesenc %xmm7, %xmm5, %xmm5
  7981. vaesenc %xmm7, %xmm1, %xmm1
  7982. vmovdqa 112(%r15), %xmm7
  7983. vaesenc %xmm7, %xmm5, %xmm5
  7984. vaesenc %xmm7, %xmm1, %xmm1
  7985. vmovdqa 128(%r15), %xmm7
  7986. vaesenc %xmm7, %xmm5, %xmm5
  7987. vaesenc %xmm7, %xmm1, %xmm1
  7988. vmovdqa 144(%r15), %xmm7
  7989. vaesenc %xmm7, %xmm5, %xmm5
  7990. vaesenc %xmm7, %xmm1, %xmm1
  7991. cmpl $11, %r10d
  7992. vmovdqa 160(%r15), %xmm7
  7993. jl L_AES_GCM_decrypt_avx1_calc_iv_12_last
  7994. vaesenc %xmm7, %xmm5, %xmm5
  7995. vaesenc %xmm7, %xmm1, %xmm1
  7996. vmovdqa 176(%r15), %xmm7
  7997. vaesenc %xmm7, %xmm5, %xmm5
  7998. vaesenc %xmm7, %xmm1, %xmm1
  7999. cmpl $13, %r10d
  8000. vmovdqa 192(%r15), %xmm7
  8001. jl L_AES_GCM_decrypt_avx1_calc_iv_12_last
  8002. vaesenc %xmm7, %xmm5, %xmm5
  8003. vaesenc %xmm7, %xmm1, %xmm1
  8004. vmovdqa 208(%r15), %xmm7
  8005. vaesenc %xmm7, %xmm5, %xmm5
  8006. vaesenc %xmm7, %xmm1, %xmm1
  8007. vmovdqa 224(%r15), %xmm7
  8008. L_AES_GCM_decrypt_avx1_calc_iv_12_last:
  8009. vaesenclast %xmm7, %xmm5, %xmm5
  8010. vaesenclast %xmm7, %xmm1, %xmm1
  8011. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm5, %xmm5
  8012. vmovdqa %xmm1, 144(%rsp)
  8013. jmp L_AES_GCM_decrypt_avx1_iv_done
  8014. L_AES_GCM_decrypt_avx1_iv_not_12:
  8015. # Calculate values when IV is not 12 bytes
  8016. # H = Encrypt X(=0)
  8017. vmovdqa (%r15), %xmm5
  8018. vaesenc 16(%r15), %xmm5, %xmm5
  8019. vaesenc 32(%r15), %xmm5, %xmm5
  8020. vaesenc 48(%r15), %xmm5, %xmm5
  8021. vaesenc 64(%r15), %xmm5, %xmm5
  8022. vaesenc 80(%r15), %xmm5, %xmm5
  8023. vaesenc 96(%r15), %xmm5, %xmm5
  8024. vaesenc 112(%r15), %xmm5, %xmm5
  8025. vaesenc 128(%r15), %xmm5, %xmm5
  8026. vaesenc 144(%r15), %xmm5, %xmm5
  8027. cmpl $11, %r10d
  8028. vmovdqa 160(%r15), %xmm9
  8029. jl L_AES_GCM_decrypt_avx1_calc_iv_1_aesenc_avx_last
  8030. vaesenc %xmm9, %xmm5, %xmm5
  8031. vaesenc 176(%r15), %xmm5, %xmm5
  8032. cmpl $13, %r10d
  8033. vmovdqa 192(%r15), %xmm9
  8034. jl L_AES_GCM_decrypt_avx1_calc_iv_1_aesenc_avx_last
  8035. vaesenc %xmm9, %xmm5, %xmm5
  8036. vaesenc 208(%r15), %xmm5, %xmm5
  8037. vmovdqa 224(%r15), %xmm9
  8038. L_AES_GCM_decrypt_avx1_calc_iv_1_aesenc_avx_last:
  8039. vaesenclast %xmm9, %xmm5, %xmm5
  8040. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm5, %xmm5
  8041. # Calc counter
  8042. # Initialization vector
  8043. cmpl $0x00, %edx
  8044. movq $0x00, %rcx
  8045. je L_AES_GCM_decrypt_avx1_calc_iv_done
  8046. cmpl $16, %edx
  8047. jl L_AES_GCM_decrypt_avx1_calc_iv_lt16
  8048. andl $0xfffffff0, %edx
  8049. L_AES_GCM_decrypt_avx1_calc_iv_16_loop:
  8050. vmovdqu (%rax,%rcx,1), %xmm8
  8051. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm8, %xmm8
  8052. vpxor %xmm8, %xmm4, %xmm4
  8053. # ghash_gfmul_avx
  8054. vpshufd $0x4e, %xmm4, %xmm1
  8055. vpshufd $0x4e, %xmm5, %xmm2
  8056. vpclmulqdq $0x11, %xmm4, %xmm5, %xmm3
  8057. vpclmulqdq $0x00, %xmm4, %xmm5, %xmm0
  8058. vpxor %xmm4, %xmm1, %xmm1
  8059. vpxor %xmm5, %xmm2, %xmm2
  8060. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
  8061. vpxor %xmm0, %xmm1, %xmm1
  8062. vpxor %xmm3, %xmm1, %xmm1
  8063. vmovdqa %xmm0, %xmm7
  8064. vmovdqa %xmm3, %xmm4
  8065. vpslldq $8, %xmm1, %xmm2
  8066. vpsrldq $8, %xmm1, %xmm1
  8067. vpxor %xmm2, %xmm7, %xmm7
  8068. vpxor %xmm1, %xmm4, %xmm4
  8069. vpsrld $31, %xmm7, %xmm0
  8070. vpsrld $31, %xmm4, %xmm1
  8071. vpslld $0x01, %xmm7, %xmm7
  8072. vpslld $0x01, %xmm4, %xmm4
  8073. vpsrldq $12, %xmm0, %xmm2
  8074. vpslldq $4, %xmm0, %xmm0
  8075. vpslldq $4, %xmm1, %xmm1
  8076. vpor %xmm2, %xmm4, %xmm4
  8077. vpor %xmm0, %xmm7, %xmm7
  8078. vpor %xmm1, %xmm4, %xmm4
  8079. vpslld $31, %xmm7, %xmm0
  8080. vpslld $30, %xmm7, %xmm1
  8081. vpslld $25, %xmm7, %xmm2
  8082. vpxor %xmm1, %xmm0, %xmm0
  8083. vpxor %xmm2, %xmm0, %xmm0
  8084. vmovdqa %xmm0, %xmm1
  8085. vpsrldq $4, %xmm1, %xmm1
  8086. vpslldq $12, %xmm0, %xmm0
  8087. vpxor %xmm0, %xmm7, %xmm7
  8088. vpsrld $0x01, %xmm7, %xmm2
  8089. vpsrld $2, %xmm7, %xmm3
  8090. vpsrld $7, %xmm7, %xmm0
  8091. vpxor %xmm3, %xmm2, %xmm2
  8092. vpxor %xmm0, %xmm2, %xmm2
  8093. vpxor %xmm1, %xmm2, %xmm2
  8094. vpxor %xmm7, %xmm2, %xmm2
  8095. vpxor %xmm2, %xmm4, %xmm4
  8096. addl $16, %ecx
  8097. cmpl %edx, %ecx
  8098. jl L_AES_GCM_decrypt_avx1_calc_iv_16_loop
  8099. movl %ebx, %edx
  8100. cmpl %edx, %ecx
  8101. je L_AES_GCM_decrypt_avx1_calc_iv_done
  8102. L_AES_GCM_decrypt_avx1_calc_iv_lt16:
  8103. subq $16, %rsp
  8104. vpxor %xmm8, %xmm8, %xmm8
  8105. xorl %ebx, %ebx
  8106. vmovdqu %xmm8, (%rsp)
  8107. L_AES_GCM_decrypt_avx1_calc_iv_loop:
  8108. movzbl (%rax,%rcx,1), %r13d
  8109. movb %r13b, (%rsp,%rbx,1)
  8110. incl %ecx
  8111. incl %ebx
  8112. cmpl %edx, %ecx
  8113. jl L_AES_GCM_decrypt_avx1_calc_iv_loop
  8114. vmovdqu (%rsp), %xmm8
  8115. addq $16, %rsp
  8116. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm8, %xmm8
  8117. vpxor %xmm8, %xmm4, %xmm4
  8118. # ghash_gfmul_avx
  8119. vpshufd $0x4e, %xmm4, %xmm1
  8120. vpshufd $0x4e, %xmm5, %xmm2
  8121. vpclmulqdq $0x11, %xmm4, %xmm5, %xmm3
  8122. vpclmulqdq $0x00, %xmm4, %xmm5, %xmm0
  8123. vpxor %xmm4, %xmm1, %xmm1
  8124. vpxor %xmm5, %xmm2, %xmm2
  8125. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
  8126. vpxor %xmm0, %xmm1, %xmm1
  8127. vpxor %xmm3, %xmm1, %xmm1
  8128. vmovdqa %xmm0, %xmm7
  8129. vmovdqa %xmm3, %xmm4
  8130. vpslldq $8, %xmm1, %xmm2
  8131. vpsrldq $8, %xmm1, %xmm1
  8132. vpxor %xmm2, %xmm7, %xmm7
  8133. vpxor %xmm1, %xmm4, %xmm4
  8134. vpsrld $31, %xmm7, %xmm0
  8135. vpsrld $31, %xmm4, %xmm1
  8136. vpslld $0x01, %xmm7, %xmm7
  8137. vpslld $0x01, %xmm4, %xmm4
  8138. vpsrldq $12, %xmm0, %xmm2
  8139. vpslldq $4, %xmm0, %xmm0
  8140. vpslldq $4, %xmm1, %xmm1
  8141. vpor %xmm2, %xmm4, %xmm4
  8142. vpor %xmm0, %xmm7, %xmm7
  8143. vpor %xmm1, %xmm4, %xmm4
  8144. vpslld $31, %xmm7, %xmm0
  8145. vpslld $30, %xmm7, %xmm1
  8146. vpslld $25, %xmm7, %xmm2
  8147. vpxor %xmm1, %xmm0, %xmm0
  8148. vpxor %xmm2, %xmm0, %xmm0
  8149. vmovdqa %xmm0, %xmm1
  8150. vpsrldq $4, %xmm1, %xmm1
  8151. vpslldq $12, %xmm0, %xmm0
  8152. vpxor %xmm0, %xmm7, %xmm7
  8153. vpsrld $0x01, %xmm7, %xmm2
  8154. vpsrld $2, %xmm7, %xmm3
  8155. vpsrld $7, %xmm7, %xmm0
  8156. vpxor %xmm3, %xmm2, %xmm2
  8157. vpxor %xmm0, %xmm2, %xmm2
  8158. vpxor %xmm1, %xmm2, %xmm2
  8159. vpxor %xmm7, %xmm2, %xmm2
  8160. vpxor %xmm2, %xmm4, %xmm4
  8161. L_AES_GCM_decrypt_avx1_calc_iv_done:
  8162. # T = Encrypt counter
  8163. vpxor %xmm0, %xmm0, %xmm0
  8164. shll $3, %edx
  8165. vpinsrq $0x00, %rdx, %xmm0, %xmm0
  8166. vpxor %xmm0, %xmm4, %xmm4
  8167. # ghash_gfmul_avx
  8168. vpshufd $0x4e, %xmm4, %xmm1
  8169. vpshufd $0x4e, %xmm5, %xmm2
  8170. vpclmulqdq $0x11, %xmm4, %xmm5, %xmm3
  8171. vpclmulqdq $0x00, %xmm4, %xmm5, %xmm0
  8172. vpxor %xmm4, %xmm1, %xmm1
  8173. vpxor %xmm5, %xmm2, %xmm2
  8174. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
  8175. vpxor %xmm0, %xmm1, %xmm1
  8176. vpxor %xmm3, %xmm1, %xmm1
  8177. vmovdqa %xmm0, %xmm7
  8178. vmovdqa %xmm3, %xmm4
  8179. vpslldq $8, %xmm1, %xmm2
  8180. vpsrldq $8, %xmm1, %xmm1
  8181. vpxor %xmm2, %xmm7, %xmm7
  8182. vpxor %xmm1, %xmm4, %xmm4
  8183. vpsrld $31, %xmm7, %xmm0
  8184. vpsrld $31, %xmm4, %xmm1
  8185. vpslld $0x01, %xmm7, %xmm7
  8186. vpslld $0x01, %xmm4, %xmm4
  8187. vpsrldq $12, %xmm0, %xmm2
  8188. vpslldq $4, %xmm0, %xmm0
  8189. vpslldq $4, %xmm1, %xmm1
  8190. vpor %xmm2, %xmm4, %xmm4
  8191. vpor %xmm0, %xmm7, %xmm7
  8192. vpor %xmm1, %xmm4, %xmm4
  8193. vpslld $31, %xmm7, %xmm0
  8194. vpslld $30, %xmm7, %xmm1
  8195. vpslld $25, %xmm7, %xmm2
  8196. vpxor %xmm1, %xmm0, %xmm0
  8197. vpxor %xmm2, %xmm0, %xmm0
  8198. vmovdqa %xmm0, %xmm1
  8199. vpsrldq $4, %xmm1, %xmm1
  8200. vpslldq $12, %xmm0, %xmm0
  8201. vpxor %xmm0, %xmm7, %xmm7
  8202. vpsrld $0x01, %xmm7, %xmm2
  8203. vpsrld $2, %xmm7, %xmm3
  8204. vpsrld $7, %xmm7, %xmm0
  8205. vpxor %xmm3, %xmm2, %xmm2
  8206. vpxor %xmm0, %xmm2, %xmm2
  8207. vpxor %xmm1, %xmm2, %xmm2
  8208. vpxor %xmm7, %xmm2, %xmm2
  8209. vpxor %xmm2, %xmm4, %xmm4
  8210. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm4, %xmm4
  8211. # Encrypt counter
  8212. vmovdqa (%r15), %xmm8
  8213. vpxor %xmm4, %xmm8, %xmm8
  8214. vaesenc 16(%r15), %xmm8, %xmm8
  8215. vaesenc 32(%r15), %xmm8, %xmm8
  8216. vaesenc 48(%r15), %xmm8, %xmm8
  8217. vaesenc 64(%r15), %xmm8, %xmm8
  8218. vaesenc 80(%r15), %xmm8, %xmm8
  8219. vaesenc 96(%r15), %xmm8, %xmm8
  8220. vaesenc 112(%r15), %xmm8, %xmm8
  8221. vaesenc 128(%r15), %xmm8, %xmm8
  8222. vaesenc 144(%r15), %xmm8, %xmm8
  8223. cmpl $11, %r10d
  8224. vmovdqa 160(%r15), %xmm9
  8225. jl L_AES_GCM_decrypt_avx1_calc_iv_2_aesenc_avx_last
  8226. vaesenc %xmm9, %xmm8, %xmm8
  8227. vaesenc 176(%r15), %xmm8, %xmm8
  8228. cmpl $13, %r10d
  8229. vmovdqa 192(%r15), %xmm9
  8230. jl L_AES_GCM_decrypt_avx1_calc_iv_2_aesenc_avx_last
  8231. vaesenc %xmm9, %xmm8, %xmm8
  8232. vaesenc 208(%r15), %xmm8, %xmm8
  8233. vmovdqa 224(%r15), %xmm9
  8234. L_AES_GCM_decrypt_avx1_calc_iv_2_aesenc_avx_last:
  8235. vaesenclast %xmm9, %xmm8, %xmm8
  8236. vmovdqa %xmm8, 144(%rsp)
  8237. L_AES_GCM_decrypt_avx1_iv_done:
  8238. # Additional authentication data
  8239. movl %r11d, %edx
  8240. cmpl $0x00, %edx
  8241. je L_AES_GCM_decrypt_avx1_calc_aad_done
  8242. xorl %ecx, %ecx
  8243. cmpl $16, %edx
  8244. jl L_AES_GCM_decrypt_avx1_calc_aad_lt16
  8245. andl $0xfffffff0, %edx
  8246. L_AES_GCM_decrypt_avx1_calc_aad_16_loop:
  8247. vmovdqu (%r12,%rcx,1), %xmm8
  8248. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm8, %xmm8
  8249. vpxor %xmm8, %xmm6, %xmm6
  8250. # ghash_gfmul_avx
  8251. vpshufd $0x4e, %xmm6, %xmm1
  8252. vpshufd $0x4e, %xmm5, %xmm2
  8253. vpclmulqdq $0x11, %xmm6, %xmm5, %xmm3
  8254. vpclmulqdq $0x00, %xmm6, %xmm5, %xmm0
  8255. vpxor %xmm6, %xmm1, %xmm1
  8256. vpxor %xmm5, %xmm2, %xmm2
  8257. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
  8258. vpxor %xmm0, %xmm1, %xmm1
  8259. vpxor %xmm3, %xmm1, %xmm1
  8260. vmovdqa %xmm0, %xmm7
  8261. vmovdqa %xmm3, %xmm6
  8262. vpslldq $8, %xmm1, %xmm2
  8263. vpsrldq $8, %xmm1, %xmm1
  8264. vpxor %xmm2, %xmm7, %xmm7
  8265. vpxor %xmm1, %xmm6, %xmm6
  8266. vpsrld $31, %xmm7, %xmm0
  8267. vpsrld $31, %xmm6, %xmm1
  8268. vpslld $0x01, %xmm7, %xmm7
  8269. vpslld $0x01, %xmm6, %xmm6
  8270. vpsrldq $12, %xmm0, %xmm2
  8271. vpslldq $4, %xmm0, %xmm0
  8272. vpslldq $4, %xmm1, %xmm1
  8273. vpor %xmm2, %xmm6, %xmm6
  8274. vpor %xmm0, %xmm7, %xmm7
  8275. vpor %xmm1, %xmm6, %xmm6
  8276. vpslld $31, %xmm7, %xmm0
  8277. vpslld $30, %xmm7, %xmm1
  8278. vpslld $25, %xmm7, %xmm2
  8279. vpxor %xmm1, %xmm0, %xmm0
  8280. vpxor %xmm2, %xmm0, %xmm0
  8281. vmovdqa %xmm0, %xmm1
  8282. vpsrldq $4, %xmm1, %xmm1
  8283. vpslldq $12, %xmm0, %xmm0
  8284. vpxor %xmm0, %xmm7, %xmm7
  8285. vpsrld $0x01, %xmm7, %xmm2
  8286. vpsrld $2, %xmm7, %xmm3
  8287. vpsrld $7, %xmm7, %xmm0
  8288. vpxor %xmm3, %xmm2, %xmm2
  8289. vpxor %xmm0, %xmm2, %xmm2
  8290. vpxor %xmm1, %xmm2, %xmm2
  8291. vpxor %xmm7, %xmm2, %xmm2
  8292. vpxor %xmm2, %xmm6, %xmm6
  8293. addl $16, %ecx
  8294. cmpl %edx, %ecx
  8295. jl L_AES_GCM_decrypt_avx1_calc_aad_16_loop
  8296. movl %r11d, %edx
  8297. cmpl %edx, %ecx
  8298. je L_AES_GCM_decrypt_avx1_calc_aad_done
  8299. L_AES_GCM_decrypt_avx1_calc_aad_lt16:
  8300. subq $16, %rsp
  8301. vpxor %xmm8, %xmm8, %xmm8
  8302. xorl %ebx, %ebx
  8303. vmovdqu %xmm8, (%rsp)
  8304. L_AES_GCM_decrypt_avx1_calc_aad_loop:
  8305. movzbl (%r12,%rcx,1), %r13d
  8306. movb %r13b, (%rsp,%rbx,1)
  8307. incl %ecx
  8308. incl %ebx
  8309. cmpl %edx, %ecx
  8310. jl L_AES_GCM_decrypt_avx1_calc_aad_loop
  8311. vmovdqu (%rsp), %xmm8
  8312. addq $16, %rsp
  8313. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm8, %xmm8
  8314. vpxor %xmm8, %xmm6, %xmm6
  8315. # ghash_gfmul_avx
  8316. vpshufd $0x4e, %xmm6, %xmm1
  8317. vpshufd $0x4e, %xmm5, %xmm2
  8318. vpclmulqdq $0x11, %xmm6, %xmm5, %xmm3
  8319. vpclmulqdq $0x00, %xmm6, %xmm5, %xmm0
  8320. vpxor %xmm6, %xmm1, %xmm1
  8321. vpxor %xmm5, %xmm2, %xmm2
  8322. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
  8323. vpxor %xmm0, %xmm1, %xmm1
  8324. vpxor %xmm3, %xmm1, %xmm1
  8325. vmovdqa %xmm0, %xmm7
  8326. vmovdqa %xmm3, %xmm6
  8327. vpslldq $8, %xmm1, %xmm2
  8328. vpsrldq $8, %xmm1, %xmm1
  8329. vpxor %xmm2, %xmm7, %xmm7
  8330. vpxor %xmm1, %xmm6, %xmm6
  8331. vpsrld $31, %xmm7, %xmm0
  8332. vpsrld $31, %xmm6, %xmm1
  8333. vpslld $0x01, %xmm7, %xmm7
  8334. vpslld $0x01, %xmm6, %xmm6
  8335. vpsrldq $12, %xmm0, %xmm2
  8336. vpslldq $4, %xmm0, %xmm0
  8337. vpslldq $4, %xmm1, %xmm1
  8338. vpor %xmm2, %xmm6, %xmm6
  8339. vpor %xmm0, %xmm7, %xmm7
  8340. vpor %xmm1, %xmm6, %xmm6
  8341. vpslld $31, %xmm7, %xmm0
  8342. vpslld $30, %xmm7, %xmm1
  8343. vpslld $25, %xmm7, %xmm2
  8344. vpxor %xmm1, %xmm0, %xmm0
  8345. vpxor %xmm2, %xmm0, %xmm0
  8346. vmovdqa %xmm0, %xmm1
  8347. vpsrldq $4, %xmm1, %xmm1
  8348. vpslldq $12, %xmm0, %xmm0
  8349. vpxor %xmm0, %xmm7, %xmm7
  8350. vpsrld $0x01, %xmm7, %xmm2
  8351. vpsrld $2, %xmm7, %xmm3
  8352. vpsrld $7, %xmm7, %xmm0
  8353. vpxor %xmm3, %xmm2, %xmm2
  8354. vpxor %xmm0, %xmm2, %xmm2
  8355. vpxor %xmm1, %xmm2, %xmm2
  8356. vpxor %xmm7, %xmm2, %xmm2
  8357. vpxor %xmm2, %xmm6, %xmm6
  8358. L_AES_GCM_decrypt_avx1_calc_aad_done:
  8359. # Calculate counter and H
  8360. vpsrlq $63, %xmm5, %xmm9
  8361. vpsllq $0x01, %xmm5, %xmm8
  8362. vpslldq $8, %xmm9, %xmm9
  8363. vpor %xmm9, %xmm8, %xmm8
  8364. vpshufd $0xff, %xmm5, %xmm5
  8365. vpsrad $31, %xmm5, %xmm5
  8366. vpshufb L_avx1_aes_gcm_bswap_epi64(%rip), %xmm4, %xmm4
  8367. vpand L_avx1_aes_gcm_mod2_128(%rip), %xmm5, %xmm5
  8368. vpaddd L_avx1_aes_gcm_one(%rip), %xmm4, %xmm4
  8369. vpxor %xmm8, %xmm5, %xmm5
  8370. vmovdqa %xmm4, 128(%rsp)
  8371. xorl %ebx, %ebx
  8372. cmpl $0x80, %r9d
  8373. movl %r9d, %r13d
  8374. jl L_AES_GCM_decrypt_avx1_done_128
  8375. andl $0xffffff80, %r13d
  8376. vmovdqa %xmm6, %xmm2
  8377. # H ^ 1
  8378. vmovdqa %xmm5, (%rsp)
  8379. # H ^ 2
  8380. vpclmulqdq $0x00, %xmm5, %xmm5, %xmm8
  8381. vpclmulqdq $0x11, %xmm5, %xmm5, %xmm0
  8382. vpslld $31, %xmm8, %xmm12
  8383. vpslld $30, %xmm8, %xmm13
  8384. vpslld $25, %xmm8, %xmm14
  8385. vpxor %xmm13, %xmm12, %xmm12
  8386. vpxor %xmm14, %xmm12, %xmm12
  8387. vpsrldq $4, %xmm12, %xmm13
  8388. vpslldq $12, %xmm12, %xmm12
  8389. vpxor %xmm12, %xmm8, %xmm8
  8390. vpsrld $0x01, %xmm8, %xmm14
  8391. vpsrld $2, %xmm8, %xmm10
  8392. vpsrld $7, %xmm8, %xmm9
  8393. vpxor %xmm10, %xmm14, %xmm14
  8394. vpxor %xmm9, %xmm14, %xmm14
  8395. vpxor %xmm13, %xmm14, %xmm14
  8396. vpxor %xmm8, %xmm14, %xmm14
  8397. vpxor %xmm14, %xmm0, %xmm0
  8398. vmovdqa %xmm0, 16(%rsp)
  8399. # H ^ 3
  8400. # ghash_gfmul_red_avx
  8401. vpshufd $0x4e, %xmm5, %xmm9
  8402. vpshufd $0x4e, %xmm0, %xmm10
  8403. vpclmulqdq $0x11, %xmm5, %xmm0, %xmm11
  8404. vpclmulqdq $0x00, %xmm5, %xmm0, %xmm8
  8405. vpxor %xmm5, %xmm9, %xmm9
  8406. vpxor %xmm0, %xmm10, %xmm10
  8407. vpclmulqdq $0x00, %xmm10, %xmm9, %xmm9
  8408. vpxor %xmm8, %xmm9, %xmm9
  8409. vpxor %xmm11, %xmm9, %xmm9
  8410. vpslldq $8, %xmm9, %xmm10
  8411. vpsrldq $8, %xmm9, %xmm9
  8412. vpxor %xmm10, %xmm8, %xmm8
  8413. vpxor %xmm9, %xmm11, %xmm1
  8414. vpslld $31, %xmm8, %xmm12
  8415. vpslld $30, %xmm8, %xmm13
  8416. vpslld $25, %xmm8, %xmm14
  8417. vpxor %xmm13, %xmm12, %xmm12
  8418. vpxor %xmm14, %xmm12, %xmm12
  8419. vpsrldq $4, %xmm12, %xmm13
  8420. vpslldq $12, %xmm12, %xmm12
  8421. vpxor %xmm12, %xmm8, %xmm8
  8422. vpsrld $0x01, %xmm8, %xmm14
  8423. vpsrld $2, %xmm8, %xmm10
  8424. vpsrld $7, %xmm8, %xmm9
  8425. vpxor %xmm10, %xmm14, %xmm14
  8426. vpxor %xmm9, %xmm14, %xmm14
  8427. vpxor %xmm13, %xmm14, %xmm14
  8428. vpxor %xmm8, %xmm14, %xmm14
  8429. vpxor %xmm14, %xmm1, %xmm1
  8430. vmovdqa %xmm1, 32(%rsp)
  8431. # H ^ 4
  8432. vpclmulqdq $0x00, %xmm0, %xmm0, %xmm8
  8433. vpclmulqdq $0x11, %xmm0, %xmm0, %xmm3
  8434. vpslld $31, %xmm8, %xmm12
  8435. vpslld $30, %xmm8, %xmm13
  8436. vpslld $25, %xmm8, %xmm14
  8437. vpxor %xmm13, %xmm12, %xmm12
  8438. vpxor %xmm14, %xmm12, %xmm12
  8439. vpsrldq $4, %xmm12, %xmm13
  8440. vpslldq $12, %xmm12, %xmm12
  8441. vpxor %xmm12, %xmm8, %xmm8
  8442. vpsrld $0x01, %xmm8, %xmm14
  8443. vpsrld $2, %xmm8, %xmm10
  8444. vpsrld $7, %xmm8, %xmm9
  8445. vpxor %xmm10, %xmm14, %xmm14
  8446. vpxor %xmm9, %xmm14, %xmm14
  8447. vpxor %xmm13, %xmm14, %xmm14
  8448. vpxor %xmm8, %xmm14, %xmm14
  8449. vpxor %xmm14, %xmm3, %xmm3
  8450. vmovdqa %xmm3, 48(%rsp)
  8451. # H ^ 5
  8452. # ghash_gfmul_red_avx
  8453. vpshufd $0x4e, %xmm0, %xmm9
  8454. vpshufd $0x4e, %xmm1, %xmm10
  8455. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm11
  8456. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm8
  8457. vpxor %xmm0, %xmm9, %xmm9
  8458. vpxor %xmm1, %xmm10, %xmm10
  8459. vpclmulqdq $0x00, %xmm10, %xmm9, %xmm9
  8460. vpxor %xmm8, %xmm9, %xmm9
  8461. vpxor %xmm11, %xmm9, %xmm9
  8462. vpslldq $8, %xmm9, %xmm10
  8463. vpsrldq $8, %xmm9, %xmm9
  8464. vpxor %xmm10, %xmm8, %xmm8
  8465. vpxor %xmm9, %xmm11, %xmm7
  8466. vpslld $31, %xmm8, %xmm12
  8467. vpslld $30, %xmm8, %xmm13
  8468. vpslld $25, %xmm8, %xmm14
  8469. vpxor %xmm13, %xmm12, %xmm12
  8470. vpxor %xmm14, %xmm12, %xmm12
  8471. vpsrldq $4, %xmm12, %xmm13
  8472. vpslldq $12, %xmm12, %xmm12
  8473. vpxor %xmm12, %xmm8, %xmm8
  8474. vpsrld $0x01, %xmm8, %xmm14
  8475. vpsrld $2, %xmm8, %xmm10
  8476. vpsrld $7, %xmm8, %xmm9
  8477. vpxor %xmm10, %xmm14, %xmm14
  8478. vpxor %xmm9, %xmm14, %xmm14
  8479. vpxor %xmm13, %xmm14, %xmm14
  8480. vpxor %xmm8, %xmm14, %xmm14
  8481. vpxor %xmm14, %xmm7, %xmm7
  8482. vmovdqa %xmm7, 64(%rsp)
  8483. # H ^ 6
  8484. vpclmulqdq $0x00, %xmm1, %xmm1, %xmm8
  8485. vpclmulqdq $0x11, %xmm1, %xmm1, %xmm7
  8486. vpslld $31, %xmm8, %xmm12
  8487. vpslld $30, %xmm8, %xmm13
  8488. vpslld $25, %xmm8, %xmm14
  8489. vpxor %xmm13, %xmm12, %xmm12
  8490. vpxor %xmm14, %xmm12, %xmm12
  8491. vpsrldq $4, %xmm12, %xmm13
  8492. vpslldq $12, %xmm12, %xmm12
  8493. vpxor %xmm12, %xmm8, %xmm8
  8494. vpsrld $0x01, %xmm8, %xmm14
  8495. vpsrld $2, %xmm8, %xmm10
  8496. vpsrld $7, %xmm8, %xmm9
  8497. vpxor %xmm10, %xmm14, %xmm14
  8498. vpxor %xmm9, %xmm14, %xmm14
  8499. vpxor %xmm13, %xmm14, %xmm14
  8500. vpxor %xmm8, %xmm14, %xmm14
  8501. vpxor %xmm14, %xmm7, %xmm7
  8502. vmovdqa %xmm7, 80(%rsp)
  8503. # H ^ 7
  8504. # ghash_gfmul_red_avx
  8505. vpshufd $0x4e, %xmm1, %xmm9
  8506. vpshufd $0x4e, %xmm3, %xmm10
  8507. vpclmulqdq $0x11, %xmm1, %xmm3, %xmm11
  8508. vpclmulqdq $0x00, %xmm1, %xmm3, %xmm8
  8509. vpxor %xmm1, %xmm9, %xmm9
  8510. vpxor %xmm3, %xmm10, %xmm10
  8511. vpclmulqdq $0x00, %xmm10, %xmm9, %xmm9
  8512. vpxor %xmm8, %xmm9, %xmm9
  8513. vpxor %xmm11, %xmm9, %xmm9
  8514. vpslldq $8, %xmm9, %xmm10
  8515. vpsrldq $8, %xmm9, %xmm9
  8516. vpxor %xmm10, %xmm8, %xmm8
  8517. vpxor %xmm9, %xmm11, %xmm7
  8518. vpslld $31, %xmm8, %xmm12
  8519. vpslld $30, %xmm8, %xmm13
  8520. vpslld $25, %xmm8, %xmm14
  8521. vpxor %xmm13, %xmm12, %xmm12
  8522. vpxor %xmm14, %xmm12, %xmm12
  8523. vpsrldq $4, %xmm12, %xmm13
  8524. vpslldq $12, %xmm12, %xmm12
  8525. vpxor %xmm12, %xmm8, %xmm8
  8526. vpsrld $0x01, %xmm8, %xmm14
  8527. vpsrld $2, %xmm8, %xmm10
  8528. vpsrld $7, %xmm8, %xmm9
  8529. vpxor %xmm10, %xmm14, %xmm14
  8530. vpxor %xmm9, %xmm14, %xmm14
  8531. vpxor %xmm13, %xmm14, %xmm14
  8532. vpxor %xmm8, %xmm14, %xmm14
  8533. vpxor %xmm14, %xmm7, %xmm7
  8534. vmovdqa %xmm7, 96(%rsp)
  8535. # H ^ 8
  8536. vpclmulqdq $0x00, %xmm3, %xmm3, %xmm8
  8537. vpclmulqdq $0x11, %xmm3, %xmm3, %xmm7
  8538. vpslld $31, %xmm8, %xmm12
  8539. vpslld $30, %xmm8, %xmm13
  8540. vpslld $25, %xmm8, %xmm14
  8541. vpxor %xmm13, %xmm12, %xmm12
  8542. vpxor %xmm14, %xmm12, %xmm12
  8543. vpsrldq $4, %xmm12, %xmm13
  8544. vpslldq $12, %xmm12, %xmm12
  8545. vpxor %xmm12, %xmm8, %xmm8
  8546. vpsrld $0x01, %xmm8, %xmm14
  8547. vpsrld $2, %xmm8, %xmm10
  8548. vpsrld $7, %xmm8, %xmm9
  8549. vpxor %xmm10, %xmm14, %xmm14
  8550. vpxor %xmm9, %xmm14, %xmm14
  8551. vpxor %xmm13, %xmm14, %xmm14
  8552. vpxor %xmm8, %xmm14, %xmm14
  8553. vpxor %xmm14, %xmm7, %xmm7
  8554. vmovdqa %xmm7, 112(%rsp)
  8555. L_AES_GCM_decrypt_avx1_ghash_128:
  8556. leaq (%rdi,%rbx,1), %rcx
  8557. leaq (%rsi,%rbx,1), %rdx
  8558. vmovdqa 128(%rsp), %xmm0
  8559. vmovdqa L_avx1_aes_gcm_bswap_epi64(%rip), %xmm1
  8560. vpshufb %xmm1, %xmm0, %xmm8
  8561. vpaddd L_avx1_aes_gcm_one(%rip), %xmm0, %xmm9
  8562. vpshufb %xmm1, %xmm9, %xmm9
  8563. vpaddd L_avx1_aes_gcm_two(%rip), %xmm0, %xmm10
  8564. vpshufb %xmm1, %xmm10, %xmm10
  8565. vpaddd L_avx1_aes_gcm_three(%rip), %xmm0, %xmm11
  8566. vpshufb %xmm1, %xmm11, %xmm11
  8567. vpaddd L_avx1_aes_gcm_four(%rip), %xmm0, %xmm12
  8568. vpshufb %xmm1, %xmm12, %xmm12
  8569. vpaddd L_avx1_aes_gcm_five(%rip), %xmm0, %xmm13
  8570. vpshufb %xmm1, %xmm13, %xmm13
  8571. vpaddd L_avx1_aes_gcm_six(%rip), %xmm0, %xmm14
  8572. vpshufb %xmm1, %xmm14, %xmm14
  8573. vpaddd L_avx1_aes_gcm_seven(%rip), %xmm0, %xmm15
  8574. vpshufb %xmm1, %xmm15, %xmm15
  8575. vpaddd L_avx1_aes_gcm_eight(%rip), %xmm0, %xmm0
  8576. vmovdqa (%r15), %xmm7
  8577. vmovdqa %xmm0, 128(%rsp)
  8578. vpxor %xmm7, %xmm8, %xmm8
  8579. vpxor %xmm7, %xmm9, %xmm9
  8580. vpxor %xmm7, %xmm10, %xmm10
  8581. vpxor %xmm7, %xmm11, %xmm11
  8582. vpxor %xmm7, %xmm12, %xmm12
  8583. vpxor %xmm7, %xmm13, %xmm13
  8584. vpxor %xmm7, %xmm14, %xmm14
  8585. vpxor %xmm7, %xmm15, %xmm15
  8586. vmovdqa 112(%rsp), %xmm7
  8587. vmovdqu (%rcx), %xmm0
  8588. vaesenc 16(%r15), %xmm8, %xmm8
  8589. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  8590. vpxor %xmm2, %xmm0, %xmm0
  8591. vpshufd $0x4e, %xmm7, %xmm1
  8592. vpshufd $0x4e, %xmm0, %xmm5
  8593. vpxor %xmm7, %xmm1, %xmm1
  8594. vpxor %xmm0, %xmm5, %xmm5
  8595. vpclmulqdq $0x11, %xmm7, %xmm0, %xmm3
  8596. vaesenc 16(%r15), %xmm9, %xmm9
  8597. vaesenc 16(%r15), %xmm10, %xmm10
  8598. vpclmulqdq $0x00, %xmm7, %xmm0, %xmm2
  8599. vaesenc 16(%r15), %xmm11, %xmm11
  8600. vaesenc 16(%r15), %xmm12, %xmm12
  8601. vpclmulqdq $0x00, %xmm5, %xmm1, %xmm1
  8602. vaesenc 16(%r15), %xmm13, %xmm13
  8603. vaesenc 16(%r15), %xmm14, %xmm14
  8604. vaesenc 16(%r15), %xmm15, %xmm15
  8605. vpxor %xmm2, %xmm1, %xmm1
  8606. vpxor %xmm3, %xmm1, %xmm1
  8607. vmovdqa 96(%rsp), %xmm7
  8608. vmovdqu 16(%rcx), %xmm0
  8609. vpshufd $0x4e, %xmm7, %xmm4
  8610. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  8611. vaesenc 32(%r15), %xmm8, %xmm8
  8612. vpxor %xmm7, %xmm4, %xmm4
  8613. vpshufd $0x4e, %xmm0, %xmm5
  8614. vpxor %xmm0, %xmm5, %xmm5
  8615. vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
  8616. vaesenc 32(%r15), %xmm9, %xmm9
  8617. vaesenc 32(%r15), %xmm10, %xmm10
  8618. vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
  8619. vaesenc 32(%r15), %xmm11, %xmm11
  8620. vaesenc 32(%r15), %xmm12, %xmm12
  8621. vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
  8622. vaesenc 32(%r15), %xmm13, %xmm13
  8623. vaesenc 32(%r15), %xmm14, %xmm14
  8624. vaesenc 32(%r15), %xmm15, %xmm15
  8625. vpxor %xmm7, %xmm1, %xmm1
  8626. vpxor %xmm7, %xmm2, %xmm2
  8627. vpxor %xmm6, %xmm1, %xmm1
  8628. vpxor %xmm6, %xmm3, %xmm3
  8629. vpxor %xmm4, %xmm1, %xmm1
  8630. vmovdqa 80(%rsp), %xmm7
  8631. vmovdqu 32(%rcx), %xmm0
  8632. vpshufd $0x4e, %xmm7, %xmm4
  8633. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  8634. vaesenc 48(%r15), %xmm8, %xmm8
  8635. vpxor %xmm7, %xmm4, %xmm4
  8636. vpshufd $0x4e, %xmm0, %xmm5
  8637. vpxor %xmm0, %xmm5, %xmm5
  8638. vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
  8639. vaesenc 48(%r15), %xmm9, %xmm9
  8640. vaesenc 48(%r15), %xmm10, %xmm10
  8641. vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
  8642. vaesenc 48(%r15), %xmm11, %xmm11
  8643. vaesenc 48(%r15), %xmm12, %xmm12
  8644. vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
  8645. vaesenc 48(%r15), %xmm13, %xmm13
  8646. vaesenc 48(%r15), %xmm14, %xmm14
  8647. vaesenc 48(%r15), %xmm15, %xmm15
  8648. vpxor %xmm7, %xmm1, %xmm1
  8649. vpxor %xmm7, %xmm2, %xmm2
  8650. vpxor %xmm6, %xmm1, %xmm1
  8651. vpxor %xmm6, %xmm3, %xmm3
  8652. vpxor %xmm4, %xmm1, %xmm1
  8653. vmovdqa 64(%rsp), %xmm7
  8654. vmovdqu 48(%rcx), %xmm0
  8655. vpshufd $0x4e, %xmm7, %xmm4
  8656. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  8657. vaesenc 64(%r15), %xmm8, %xmm8
  8658. vpxor %xmm7, %xmm4, %xmm4
  8659. vpshufd $0x4e, %xmm0, %xmm5
  8660. vpxor %xmm0, %xmm5, %xmm5
  8661. vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
  8662. vaesenc 64(%r15), %xmm9, %xmm9
  8663. vaesenc 64(%r15), %xmm10, %xmm10
  8664. vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
  8665. vaesenc 64(%r15), %xmm11, %xmm11
  8666. vaesenc 64(%r15), %xmm12, %xmm12
  8667. vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
  8668. vaesenc 64(%r15), %xmm13, %xmm13
  8669. vaesenc 64(%r15), %xmm14, %xmm14
  8670. vaesenc 64(%r15), %xmm15, %xmm15
  8671. vpxor %xmm7, %xmm1, %xmm1
  8672. vpxor %xmm7, %xmm2, %xmm2
  8673. vpxor %xmm6, %xmm1, %xmm1
  8674. vpxor %xmm6, %xmm3, %xmm3
  8675. vpxor %xmm4, %xmm1, %xmm1
  8676. vmovdqa 48(%rsp), %xmm7
  8677. vmovdqu 64(%rcx), %xmm0
  8678. vpshufd $0x4e, %xmm7, %xmm4
  8679. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  8680. vaesenc 80(%r15), %xmm8, %xmm8
  8681. vpxor %xmm7, %xmm4, %xmm4
  8682. vpshufd $0x4e, %xmm0, %xmm5
  8683. vpxor %xmm0, %xmm5, %xmm5
  8684. vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
  8685. vaesenc 80(%r15), %xmm9, %xmm9
  8686. vaesenc 80(%r15), %xmm10, %xmm10
  8687. vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
  8688. vaesenc 80(%r15), %xmm11, %xmm11
  8689. vaesenc 80(%r15), %xmm12, %xmm12
  8690. vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
  8691. vaesenc 80(%r15), %xmm13, %xmm13
  8692. vaesenc 80(%r15), %xmm14, %xmm14
  8693. vaesenc 80(%r15), %xmm15, %xmm15
  8694. vpxor %xmm7, %xmm1, %xmm1
  8695. vpxor %xmm7, %xmm2, %xmm2
  8696. vpxor %xmm6, %xmm1, %xmm1
  8697. vpxor %xmm6, %xmm3, %xmm3
  8698. vpxor %xmm4, %xmm1, %xmm1
  8699. vmovdqa 32(%rsp), %xmm7
  8700. vmovdqu 80(%rcx), %xmm0
  8701. vpshufd $0x4e, %xmm7, %xmm4
  8702. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  8703. vaesenc 96(%r15), %xmm8, %xmm8
  8704. vpxor %xmm7, %xmm4, %xmm4
  8705. vpshufd $0x4e, %xmm0, %xmm5
  8706. vpxor %xmm0, %xmm5, %xmm5
  8707. vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
  8708. vaesenc 96(%r15), %xmm9, %xmm9
  8709. vaesenc 96(%r15), %xmm10, %xmm10
  8710. vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
  8711. vaesenc 96(%r15), %xmm11, %xmm11
  8712. vaesenc 96(%r15), %xmm12, %xmm12
  8713. vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
  8714. vaesenc 96(%r15), %xmm13, %xmm13
  8715. vaesenc 96(%r15), %xmm14, %xmm14
  8716. vaesenc 96(%r15), %xmm15, %xmm15
  8717. vpxor %xmm7, %xmm1, %xmm1
  8718. vpxor %xmm7, %xmm2, %xmm2
  8719. vpxor %xmm6, %xmm1, %xmm1
  8720. vpxor %xmm6, %xmm3, %xmm3
  8721. vpxor %xmm4, %xmm1, %xmm1
  8722. vmovdqa 16(%rsp), %xmm7
  8723. vmovdqu 96(%rcx), %xmm0
  8724. vpshufd $0x4e, %xmm7, %xmm4
  8725. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  8726. vaesenc 112(%r15), %xmm8, %xmm8
  8727. vpxor %xmm7, %xmm4, %xmm4
  8728. vpshufd $0x4e, %xmm0, %xmm5
  8729. vpxor %xmm0, %xmm5, %xmm5
  8730. vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
  8731. vaesenc 112(%r15), %xmm9, %xmm9
  8732. vaesenc 112(%r15), %xmm10, %xmm10
  8733. vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
  8734. vaesenc 112(%r15), %xmm11, %xmm11
  8735. vaesenc 112(%r15), %xmm12, %xmm12
  8736. vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
  8737. vaesenc 112(%r15), %xmm13, %xmm13
  8738. vaesenc 112(%r15), %xmm14, %xmm14
  8739. vaesenc 112(%r15), %xmm15, %xmm15
  8740. vpxor %xmm7, %xmm1, %xmm1
  8741. vpxor %xmm7, %xmm2, %xmm2
  8742. vpxor %xmm6, %xmm1, %xmm1
  8743. vpxor %xmm6, %xmm3, %xmm3
  8744. vpxor %xmm4, %xmm1, %xmm1
  8745. vmovdqa (%rsp), %xmm7
  8746. vmovdqu 112(%rcx), %xmm0
  8747. vpshufd $0x4e, %xmm7, %xmm4
  8748. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  8749. vaesenc 128(%r15), %xmm8, %xmm8
  8750. vpxor %xmm7, %xmm4, %xmm4
  8751. vpshufd $0x4e, %xmm0, %xmm5
  8752. vpxor %xmm0, %xmm5, %xmm5
  8753. vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
  8754. vaesenc 128(%r15), %xmm9, %xmm9
  8755. vaesenc 128(%r15), %xmm10, %xmm10
  8756. vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
  8757. vaesenc 128(%r15), %xmm11, %xmm11
  8758. vaesenc 128(%r15), %xmm12, %xmm12
  8759. vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
  8760. vaesenc 128(%r15), %xmm13, %xmm13
  8761. vaesenc 128(%r15), %xmm14, %xmm14
  8762. vaesenc 128(%r15), %xmm15, %xmm15
  8763. vpxor %xmm7, %xmm1, %xmm1
  8764. vpxor %xmm7, %xmm2, %xmm2
  8765. vpxor %xmm6, %xmm1, %xmm1
  8766. vpxor %xmm6, %xmm3, %xmm3
  8767. vpxor %xmm4, %xmm1, %xmm1
  8768. vpslldq $8, %xmm1, %xmm5
  8769. vpsrldq $8, %xmm1, %xmm1
  8770. vaesenc 144(%r15), %xmm8, %xmm8
  8771. vpxor %xmm5, %xmm2, %xmm2
  8772. vpxor %xmm1, %xmm3, %xmm3
  8773. vaesenc 144(%r15), %xmm9, %xmm9
  8774. vpslld $31, %xmm2, %xmm7
  8775. vpslld $30, %xmm2, %xmm4
  8776. vpslld $25, %xmm2, %xmm5
  8777. vaesenc 144(%r15), %xmm10, %xmm10
  8778. vpxor %xmm4, %xmm7, %xmm7
  8779. vpxor %xmm5, %xmm7, %xmm7
  8780. vaesenc 144(%r15), %xmm11, %xmm11
  8781. vpsrldq $4, %xmm7, %xmm4
  8782. vpslldq $12, %xmm7, %xmm7
  8783. vaesenc 144(%r15), %xmm12, %xmm12
  8784. vpxor %xmm7, %xmm2, %xmm2
  8785. vpsrld $0x01, %xmm2, %xmm5
  8786. vaesenc 144(%r15), %xmm13, %xmm13
  8787. vpsrld $2, %xmm2, %xmm1
  8788. vpsrld $7, %xmm2, %xmm0
  8789. vaesenc 144(%r15), %xmm14, %xmm14
  8790. vpxor %xmm1, %xmm5, %xmm5
  8791. vpxor %xmm0, %xmm5, %xmm5
  8792. vaesenc 144(%r15), %xmm15, %xmm15
  8793. vpxor %xmm4, %xmm5, %xmm5
  8794. vpxor %xmm5, %xmm2, %xmm2
  8795. vpxor %xmm3, %xmm2, %xmm2
  8796. cmpl $11, %r10d
  8797. vmovdqa 160(%r15), %xmm7
  8798. jl L_AES_GCM_decrypt_avx1_aesenc_128_ghash_avx_done
  8799. vaesenc %xmm7, %xmm8, %xmm8
  8800. vaesenc %xmm7, %xmm9, %xmm9
  8801. vaesenc %xmm7, %xmm10, %xmm10
  8802. vaesenc %xmm7, %xmm11, %xmm11
  8803. vaesenc %xmm7, %xmm12, %xmm12
  8804. vaesenc %xmm7, %xmm13, %xmm13
  8805. vaesenc %xmm7, %xmm14, %xmm14
  8806. vaesenc %xmm7, %xmm15, %xmm15
  8807. vmovdqa 176(%r15), %xmm7
  8808. vaesenc %xmm7, %xmm8, %xmm8
  8809. vaesenc %xmm7, %xmm9, %xmm9
  8810. vaesenc %xmm7, %xmm10, %xmm10
  8811. vaesenc %xmm7, %xmm11, %xmm11
  8812. vaesenc %xmm7, %xmm12, %xmm12
  8813. vaesenc %xmm7, %xmm13, %xmm13
  8814. vaesenc %xmm7, %xmm14, %xmm14
  8815. vaesenc %xmm7, %xmm15, %xmm15
  8816. cmpl $13, %r10d
  8817. vmovdqa 192(%r15), %xmm7
  8818. jl L_AES_GCM_decrypt_avx1_aesenc_128_ghash_avx_done
  8819. vaesenc %xmm7, %xmm8, %xmm8
  8820. vaesenc %xmm7, %xmm9, %xmm9
  8821. vaesenc %xmm7, %xmm10, %xmm10
  8822. vaesenc %xmm7, %xmm11, %xmm11
  8823. vaesenc %xmm7, %xmm12, %xmm12
  8824. vaesenc %xmm7, %xmm13, %xmm13
  8825. vaesenc %xmm7, %xmm14, %xmm14
  8826. vaesenc %xmm7, %xmm15, %xmm15
  8827. vmovdqa 208(%r15), %xmm7
  8828. vaesenc %xmm7, %xmm8, %xmm8
  8829. vaesenc %xmm7, %xmm9, %xmm9
  8830. vaesenc %xmm7, %xmm10, %xmm10
  8831. vaesenc %xmm7, %xmm11, %xmm11
  8832. vaesenc %xmm7, %xmm12, %xmm12
  8833. vaesenc %xmm7, %xmm13, %xmm13
  8834. vaesenc %xmm7, %xmm14, %xmm14
  8835. vaesenc %xmm7, %xmm15, %xmm15
  8836. vmovdqa 224(%r15), %xmm7
  8837. L_AES_GCM_decrypt_avx1_aesenc_128_ghash_avx_done:
  8838. vaesenclast %xmm7, %xmm8, %xmm8
  8839. vaesenclast %xmm7, %xmm9, %xmm9
  8840. vmovdqu (%rcx), %xmm0
  8841. vmovdqu 16(%rcx), %xmm1
  8842. vpxor %xmm0, %xmm8, %xmm8
  8843. vpxor %xmm1, %xmm9, %xmm9
  8844. vmovdqu %xmm8, (%rdx)
  8845. vmovdqu %xmm9, 16(%rdx)
  8846. vaesenclast %xmm7, %xmm10, %xmm10
  8847. vaesenclast %xmm7, %xmm11, %xmm11
  8848. vmovdqu 32(%rcx), %xmm0
  8849. vmovdqu 48(%rcx), %xmm1
  8850. vpxor %xmm0, %xmm10, %xmm10
  8851. vpxor %xmm1, %xmm11, %xmm11
  8852. vmovdqu %xmm10, 32(%rdx)
  8853. vmovdqu %xmm11, 48(%rdx)
  8854. vaesenclast %xmm7, %xmm12, %xmm12
  8855. vaesenclast %xmm7, %xmm13, %xmm13
  8856. vmovdqu 64(%rcx), %xmm0
  8857. vmovdqu 80(%rcx), %xmm1
  8858. vpxor %xmm0, %xmm12, %xmm12
  8859. vpxor %xmm1, %xmm13, %xmm13
  8860. vmovdqu %xmm12, 64(%rdx)
  8861. vmovdqu %xmm13, 80(%rdx)
  8862. vaesenclast %xmm7, %xmm14, %xmm14
  8863. vaesenclast %xmm7, %xmm15, %xmm15
  8864. vmovdqu 96(%rcx), %xmm0
  8865. vmovdqu 112(%rcx), %xmm1
  8866. vpxor %xmm0, %xmm14, %xmm14
  8867. vpxor %xmm1, %xmm15, %xmm15
  8868. vmovdqu %xmm14, 96(%rdx)
  8869. vmovdqu %xmm15, 112(%rdx)
  8870. addl $0x80, %ebx
  8871. cmpl %r13d, %ebx
  8872. jl L_AES_GCM_decrypt_avx1_ghash_128
  8873. vmovdqa %xmm2, %xmm6
  8874. vmovdqa (%rsp), %xmm5
  8875. L_AES_GCM_decrypt_avx1_done_128:
  8876. movl %r9d, %edx
  8877. cmpl %edx, %ebx
  8878. jge L_AES_GCM_decrypt_avx1_done_dec
  8879. movl %r9d, %r13d
  8880. andl $0xfffffff0, %r13d
  8881. cmpl %r13d, %ebx
  8882. jge L_AES_GCM_decrypt_avx1_last_block_done
  8883. L_AES_GCM_decrypt_avx1_last_block_start:
  8884. vmovdqu (%rdi,%rbx,1), %xmm13
  8885. vmovdqa %xmm5, %xmm0
  8886. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm13, %xmm1
  8887. vpxor %xmm6, %xmm1, %xmm1
  8888. vmovdqa 128(%rsp), %xmm9
  8889. vpshufb L_avx1_aes_gcm_bswap_epi64(%rip), %xmm9, %xmm8
  8890. vpaddd L_avx1_aes_gcm_one(%rip), %xmm9, %xmm9
  8891. vmovdqa %xmm9, 128(%rsp)
  8892. vpxor (%r15), %xmm8, %xmm8
  8893. vpclmulqdq $16, %xmm0, %xmm1, %xmm10
  8894. vaesenc 16(%r15), %xmm8, %xmm8
  8895. vaesenc 32(%r15), %xmm8, %xmm8
  8896. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm11
  8897. vaesenc 48(%r15), %xmm8, %xmm8
  8898. vaesenc 64(%r15), %xmm8, %xmm8
  8899. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm12
  8900. vaesenc 80(%r15), %xmm8, %xmm8
  8901. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
  8902. vaesenc 96(%r15), %xmm8, %xmm8
  8903. vpxor %xmm11, %xmm10, %xmm10
  8904. vpslldq $8, %xmm10, %xmm2
  8905. vpsrldq $8, %xmm10, %xmm10
  8906. vaesenc 112(%r15), %xmm8, %xmm8
  8907. vpxor %xmm12, %xmm2, %xmm2
  8908. vpxor %xmm10, %xmm1, %xmm3
  8909. vmovdqa L_avx1_aes_gcm_mod2_128(%rip), %xmm0
  8910. vpclmulqdq $16, %xmm0, %xmm2, %xmm11
  8911. vaesenc 128(%r15), %xmm8, %xmm8
  8912. vpshufd $0x4e, %xmm2, %xmm10
  8913. vpxor %xmm11, %xmm10, %xmm10
  8914. vpclmulqdq $16, %xmm0, %xmm10, %xmm11
  8915. vaesenc 144(%r15), %xmm8, %xmm8
  8916. vpshufd $0x4e, %xmm10, %xmm10
  8917. vpxor %xmm11, %xmm10, %xmm10
  8918. vpxor %xmm3, %xmm10, %xmm6
  8919. cmpl $11, %r10d
  8920. vmovdqa 160(%r15), %xmm9
  8921. jl L_AES_GCM_decrypt_avx1_aesenc_gfmul_last
  8922. vaesenc %xmm9, %xmm8, %xmm8
  8923. vaesenc 176(%r15), %xmm8, %xmm8
  8924. cmpl $13, %r10d
  8925. vmovdqa 192(%r15), %xmm9
  8926. jl L_AES_GCM_decrypt_avx1_aesenc_gfmul_last
  8927. vaesenc %xmm9, %xmm8, %xmm8
  8928. vaesenc 208(%r15), %xmm8, %xmm8
  8929. vmovdqa 224(%r15), %xmm9
  8930. L_AES_GCM_decrypt_avx1_aesenc_gfmul_last:
  8931. vaesenclast %xmm9, %xmm8, %xmm8
  8932. vmovdqa %xmm13, %xmm0
  8933. vpxor %xmm0, %xmm8, %xmm8
  8934. vmovdqu %xmm8, (%rsi,%rbx,1)
  8935. addl $16, %ebx
  8936. cmpl %r13d, %ebx
  8937. jl L_AES_GCM_decrypt_avx1_last_block_start
  8938. L_AES_GCM_decrypt_avx1_last_block_done:
  8939. movl %r9d, %ecx
  8940. movl %ecx, %edx
  8941. andl $15, %ecx
  8942. jz L_AES_GCM_decrypt_avx1_aesenc_last15_dec_avx_done
  8943. vmovdqa 128(%rsp), %xmm4
  8944. vpshufb L_avx1_aes_gcm_bswap_epi64(%rip), %xmm4, %xmm4
  8945. vpxor (%r15), %xmm4, %xmm4
  8946. vaesenc 16(%r15), %xmm4, %xmm4
  8947. vaesenc 32(%r15), %xmm4, %xmm4
  8948. vaesenc 48(%r15), %xmm4, %xmm4
  8949. vaesenc 64(%r15), %xmm4, %xmm4
  8950. vaesenc 80(%r15), %xmm4, %xmm4
  8951. vaesenc 96(%r15), %xmm4, %xmm4
  8952. vaesenc 112(%r15), %xmm4, %xmm4
  8953. vaesenc 128(%r15), %xmm4, %xmm4
  8954. vaesenc 144(%r15), %xmm4, %xmm4
  8955. cmpl $11, %r10d
  8956. vmovdqa 160(%r15), %xmm9
  8957. jl L_AES_GCM_decrypt_avx1_aesenc_last15_dec_avx_aesenc_avx_last
  8958. vaesenc %xmm9, %xmm4, %xmm4
  8959. vaesenc 176(%r15), %xmm4, %xmm4
  8960. cmpl $13, %r10d
  8961. vmovdqa 192(%r15), %xmm9
  8962. jl L_AES_GCM_decrypt_avx1_aesenc_last15_dec_avx_aesenc_avx_last
  8963. vaesenc %xmm9, %xmm4, %xmm4
  8964. vaesenc 208(%r15), %xmm4, %xmm4
  8965. vmovdqa 224(%r15), %xmm9
  8966. L_AES_GCM_decrypt_avx1_aesenc_last15_dec_avx_aesenc_avx_last:
  8967. vaesenclast %xmm9, %xmm4, %xmm4
  8968. subq $32, %rsp
  8969. xorl %ecx, %ecx
  8970. vmovdqu %xmm4, (%rsp)
  8971. vpxor %xmm0, %xmm0, %xmm0
  8972. vmovdqu %xmm0, 16(%rsp)
  8973. L_AES_GCM_decrypt_avx1_aesenc_last15_dec_avx_loop:
  8974. movzbl (%rdi,%rbx,1), %r13d
  8975. movb %r13b, 16(%rsp,%rcx,1)
  8976. xorb (%rsp,%rcx,1), %r13b
  8977. movb %r13b, (%rsi,%rbx,1)
  8978. incl %ebx
  8979. incl %ecx
  8980. cmpl %edx, %ebx
  8981. jl L_AES_GCM_decrypt_avx1_aesenc_last15_dec_avx_loop
  8982. vmovdqu 16(%rsp), %xmm4
  8983. addq $32, %rsp
  8984. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm4, %xmm4
  8985. vpxor %xmm4, %xmm6, %xmm6
  8986. # ghash_gfmul_red_avx
  8987. vpshufd $0x4e, %xmm5, %xmm9
  8988. vpshufd $0x4e, %xmm6, %xmm10
  8989. vpclmulqdq $0x11, %xmm5, %xmm6, %xmm11
  8990. vpclmulqdq $0x00, %xmm5, %xmm6, %xmm8
  8991. vpxor %xmm5, %xmm9, %xmm9
  8992. vpxor %xmm6, %xmm10, %xmm10
  8993. vpclmulqdq $0x00, %xmm10, %xmm9, %xmm9
  8994. vpxor %xmm8, %xmm9, %xmm9
  8995. vpxor %xmm11, %xmm9, %xmm9
  8996. vpslldq $8, %xmm9, %xmm10
  8997. vpsrldq $8, %xmm9, %xmm9
  8998. vpxor %xmm10, %xmm8, %xmm8
  8999. vpxor %xmm9, %xmm11, %xmm6
  9000. vpslld $31, %xmm8, %xmm12
  9001. vpslld $30, %xmm8, %xmm13
  9002. vpslld $25, %xmm8, %xmm14
  9003. vpxor %xmm13, %xmm12, %xmm12
  9004. vpxor %xmm14, %xmm12, %xmm12
  9005. vpsrldq $4, %xmm12, %xmm13
  9006. vpslldq $12, %xmm12, %xmm12
  9007. vpxor %xmm12, %xmm8, %xmm8
  9008. vpsrld $0x01, %xmm8, %xmm14
  9009. vpsrld $2, %xmm8, %xmm10
  9010. vpsrld $7, %xmm8, %xmm9
  9011. vpxor %xmm10, %xmm14, %xmm14
  9012. vpxor %xmm9, %xmm14, %xmm14
  9013. vpxor %xmm13, %xmm14, %xmm14
  9014. vpxor %xmm8, %xmm14, %xmm14
  9015. vpxor %xmm14, %xmm6, %xmm6
  9016. L_AES_GCM_decrypt_avx1_aesenc_last15_dec_avx_done:
  9017. L_AES_GCM_decrypt_avx1_done_dec:
  9018. movl %r9d, %edx
  9019. movl %r11d, %ecx
  9020. shlq $3, %rdx
  9021. shlq $3, %rcx
  9022. vpinsrq $0x00, %rdx, %xmm0, %xmm0
  9023. vpinsrq $0x01, %rcx, %xmm0, %xmm0
  9024. vpxor %xmm0, %xmm6, %xmm6
  9025. # ghash_gfmul_red_avx
  9026. vpshufd $0x4e, %xmm5, %xmm9
  9027. vpshufd $0x4e, %xmm6, %xmm10
  9028. vpclmulqdq $0x11, %xmm5, %xmm6, %xmm11
  9029. vpclmulqdq $0x00, %xmm5, %xmm6, %xmm8
  9030. vpxor %xmm5, %xmm9, %xmm9
  9031. vpxor %xmm6, %xmm10, %xmm10
  9032. vpclmulqdq $0x00, %xmm10, %xmm9, %xmm9
  9033. vpxor %xmm8, %xmm9, %xmm9
  9034. vpxor %xmm11, %xmm9, %xmm9
  9035. vpslldq $8, %xmm9, %xmm10
  9036. vpsrldq $8, %xmm9, %xmm9
  9037. vpxor %xmm10, %xmm8, %xmm8
  9038. vpxor %xmm9, %xmm11, %xmm6
  9039. vpslld $31, %xmm8, %xmm12
  9040. vpslld $30, %xmm8, %xmm13
  9041. vpslld $25, %xmm8, %xmm14
  9042. vpxor %xmm13, %xmm12, %xmm12
  9043. vpxor %xmm14, %xmm12, %xmm12
  9044. vpsrldq $4, %xmm12, %xmm13
  9045. vpslldq $12, %xmm12, %xmm12
  9046. vpxor %xmm12, %xmm8, %xmm8
  9047. vpsrld $0x01, %xmm8, %xmm14
  9048. vpsrld $2, %xmm8, %xmm10
  9049. vpsrld $7, %xmm8, %xmm9
  9050. vpxor %xmm10, %xmm14, %xmm14
  9051. vpxor %xmm9, %xmm14, %xmm14
  9052. vpxor %xmm13, %xmm14, %xmm14
  9053. vpxor %xmm8, %xmm14, %xmm14
  9054. vpxor %xmm14, %xmm6, %xmm6
  9055. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm6, %xmm6
  9056. vpxor 144(%rsp), %xmm6, %xmm0
  9057. cmpl $16, %r14d
  9058. je L_AES_GCM_decrypt_avx1_cmp_tag_16
  9059. subq $16, %rsp
  9060. xorq %rcx, %rcx
  9061. xorq %rbx, %rbx
  9062. vmovdqu %xmm0, (%rsp)
  9063. L_AES_GCM_decrypt_avx1_cmp_tag_loop:
  9064. movzbl (%rsp,%rcx,1), %r13d
  9065. xorb (%r8,%rcx,1), %r13b
  9066. orb %r13b, %bl
  9067. incl %ecx
  9068. cmpl %r14d, %ecx
  9069. jne L_AES_GCM_decrypt_avx1_cmp_tag_loop
  9070. cmpb $0x00, %bl
  9071. sete %bl
  9072. addq $16, %rsp
  9073. xorq %rcx, %rcx
  9074. jmp L_AES_GCM_decrypt_avx1_cmp_tag_done
  9075. L_AES_GCM_decrypt_avx1_cmp_tag_16:
  9076. vmovdqu (%r8), %xmm1
  9077. vpcmpeqb %xmm1, %xmm0, %xmm0
  9078. vpmovmskb %xmm0, %rdx
  9079. # %%edx == 0xFFFF then return 1 else => return 0
  9080. xorl %ebx, %ebx
  9081. cmpl $0xffff, %edx
  9082. sete %bl
  9083. L_AES_GCM_decrypt_avx1_cmp_tag_done:
  9084. movl %ebx, (%rbp)
  9085. vzeroupper
  9086. addq $0xa8, %rsp
  9087. popq %rbp
  9088. popq %r15
  9089. popq %r14
  9090. popq %rbx
  9091. popq %r12
  9092. popq %r13
  9093. repz retq
  9094. #ifndef __APPLE__
  9095. .size AES_GCM_decrypt_avx1,.-AES_GCM_decrypt_avx1
  9096. #endif /* __APPLE__ */
  9097. #ifdef WOLFSSL_AESGCM_STREAM
  9098. #ifndef __APPLE__
  9099. .text
  9100. .globl AES_GCM_init_avx1
  9101. .type AES_GCM_init_avx1,@function
  9102. .align 16
  9103. AES_GCM_init_avx1:
  9104. #else
  9105. .section __TEXT,__text
  9106. .globl _AES_GCM_init_avx1
  9107. .p2align 4
  9108. _AES_GCM_init_avx1:
  9109. #endif /* __APPLE__ */
  9110. pushq %r12
  9111. pushq %r13
  9112. movq %rdx, %r10
  9113. movl %ecx, %r11d
  9114. movq 24(%rsp), %rax
  9115. subq $16, %rsp
  9116. vpxor %xmm4, %xmm4, %xmm4
  9117. movl %r11d, %edx
  9118. cmpl $12, %edx
  9119. jne L_AES_GCM_init_avx1_iv_not_12
  9120. # # Calculate values when IV is 12 bytes
  9121. # Set counter based on IV
  9122. movl $0x1000000, %ecx
  9123. vpinsrq $0x00, (%r10), %xmm4, %xmm4
  9124. vpinsrd $2, 8(%r10), %xmm4, %xmm4
  9125. vpinsrd $3, %ecx, %xmm4, %xmm4
  9126. # H = Encrypt X(=0) and T = Encrypt counter
  9127. vmovdqa (%rdi), %xmm5
  9128. vpxor %xmm5, %xmm4, %xmm1
  9129. vmovdqa 16(%rdi), %xmm7
  9130. vaesenc %xmm7, %xmm5, %xmm5
  9131. vaesenc %xmm7, %xmm1, %xmm1
  9132. vmovdqa 32(%rdi), %xmm7
  9133. vaesenc %xmm7, %xmm5, %xmm5
  9134. vaesenc %xmm7, %xmm1, %xmm1
  9135. vmovdqa 48(%rdi), %xmm7
  9136. vaesenc %xmm7, %xmm5, %xmm5
  9137. vaesenc %xmm7, %xmm1, %xmm1
  9138. vmovdqa 64(%rdi), %xmm7
  9139. vaesenc %xmm7, %xmm5, %xmm5
  9140. vaesenc %xmm7, %xmm1, %xmm1
  9141. vmovdqa 80(%rdi), %xmm7
  9142. vaesenc %xmm7, %xmm5, %xmm5
  9143. vaesenc %xmm7, %xmm1, %xmm1
  9144. vmovdqa 96(%rdi), %xmm7
  9145. vaesenc %xmm7, %xmm5, %xmm5
  9146. vaesenc %xmm7, %xmm1, %xmm1
  9147. vmovdqa 112(%rdi), %xmm7
  9148. vaesenc %xmm7, %xmm5, %xmm5
  9149. vaesenc %xmm7, %xmm1, %xmm1
  9150. vmovdqa 128(%rdi), %xmm7
  9151. vaesenc %xmm7, %xmm5, %xmm5
  9152. vaesenc %xmm7, %xmm1, %xmm1
  9153. vmovdqa 144(%rdi), %xmm7
  9154. vaesenc %xmm7, %xmm5, %xmm5
  9155. vaesenc %xmm7, %xmm1, %xmm1
  9156. cmpl $11, %esi
  9157. vmovdqa 160(%rdi), %xmm7
  9158. jl L_AES_GCM_init_avx1_calc_iv_12_last
  9159. vaesenc %xmm7, %xmm5, %xmm5
  9160. vaesenc %xmm7, %xmm1, %xmm1
  9161. vmovdqa 176(%rdi), %xmm7
  9162. vaesenc %xmm7, %xmm5, %xmm5
  9163. vaesenc %xmm7, %xmm1, %xmm1
  9164. cmpl $13, %esi
  9165. vmovdqa 192(%rdi), %xmm7
  9166. jl L_AES_GCM_init_avx1_calc_iv_12_last
  9167. vaesenc %xmm7, %xmm5, %xmm5
  9168. vaesenc %xmm7, %xmm1, %xmm1
  9169. vmovdqa 208(%rdi), %xmm7
  9170. vaesenc %xmm7, %xmm5, %xmm5
  9171. vaesenc %xmm7, %xmm1, %xmm1
  9172. vmovdqa 224(%rdi), %xmm7
  9173. L_AES_GCM_init_avx1_calc_iv_12_last:
  9174. vaesenclast %xmm7, %xmm5, %xmm5
  9175. vaesenclast %xmm7, %xmm1, %xmm1
  9176. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm5, %xmm5
  9177. vmovdqa %xmm1, %xmm15
  9178. jmp L_AES_GCM_init_avx1_iv_done
  9179. L_AES_GCM_init_avx1_iv_not_12:
  9180. # Calculate values when IV is not 12 bytes
  9181. # H = Encrypt X(=0)
  9182. vmovdqa (%rdi), %xmm5
  9183. vaesenc 16(%rdi), %xmm5, %xmm5
  9184. vaesenc 32(%rdi), %xmm5, %xmm5
  9185. vaesenc 48(%rdi), %xmm5, %xmm5
  9186. vaesenc 64(%rdi), %xmm5, %xmm5
  9187. vaesenc 80(%rdi), %xmm5, %xmm5
  9188. vaesenc 96(%rdi), %xmm5, %xmm5
  9189. vaesenc 112(%rdi), %xmm5, %xmm5
  9190. vaesenc 128(%rdi), %xmm5, %xmm5
  9191. vaesenc 144(%rdi), %xmm5, %xmm5
  9192. cmpl $11, %esi
  9193. vmovdqa 160(%rdi), %xmm9
  9194. jl L_AES_GCM_init_avx1_calc_iv_1_aesenc_avx_last
  9195. vaesenc %xmm9, %xmm5, %xmm5
  9196. vaesenc 176(%rdi), %xmm5, %xmm5
  9197. cmpl $13, %esi
  9198. vmovdqa 192(%rdi), %xmm9
  9199. jl L_AES_GCM_init_avx1_calc_iv_1_aesenc_avx_last
  9200. vaesenc %xmm9, %xmm5, %xmm5
  9201. vaesenc 208(%rdi), %xmm5, %xmm5
  9202. vmovdqa 224(%rdi), %xmm9
  9203. L_AES_GCM_init_avx1_calc_iv_1_aesenc_avx_last:
  9204. vaesenclast %xmm9, %xmm5, %xmm5
  9205. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm5, %xmm5
  9206. # Calc counter
  9207. # Initialization vector
  9208. cmpl $0x00, %edx
  9209. movq $0x00, %rcx
  9210. je L_AES_GCM_init_avx1_calc_iv_done
  9211. cmpl $16, %edx
  9212. jl L_AES_GCM_init_avx1_calc_iv_lt16
  9213. andl $0xfffffff0, %edx
  9214. L_AES_GCM_init_avx1_calc_iv_16_loop:
  9215. vmovdqu (%r10,%rcx,1), %xmm8
  9216. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm8, %xmm8
  9217. vpxor %xmm8, %xmm4, %xmm4
  9218. # ghash_gfmul_avx
  9219. vpshufd $0x4e, %xmm4, %xmm1
  9220. vpshufd $0x4e, %xmm5, %xmm2
  9221. vpclmulqdq $0x11, %xmm4, %xmm5, %xmm3
  9222. vpclmulqdq $0x00, %xmm4, %xmm5, %xmm0
  9223. vpxor %xmm4, %xmm1, %xmm1
  9224. vpxor %xmm5, %xmm2, %xmm2
  9225. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
  9226. vpxor %xmm0, %xmm1, %xmm1
  9227. vpxor %xmm3, %xmm1, %xmm1
  9228. vmovdqa %xmm0, %xmm7
  9229. vmovdqa %xmm3, %xmm4
  9230. vpslldq $8, %xmm1, %xmm2
  9231. vpsrldq $8, %xmm1, %xmm1
  9232. vpxor %xmm2, %xmm7, %xmm7
  9233. vpxor %xmm1, %xmm4, %xmm4
  9234. vpsrld $31, %xmm7, %xmm0
  9235. vpsrld $31, %xmm4, %xmm1
  9236. vpslld $0x01, %xmm7, %xmm7
  9237. vpslld $0x01, %xmm4, %xmm4
  9238. vpsrldq $12, %xmm0, %xmm2
  9239. vpslldq $4, %xmm0, %xmm0
  9240. vpslldq $4, %xmm1, %xmm1
  9241. vpor %xmm2, %xmm4, %xmm4
  9242. vpor %xmm0, %xmm7, %xmm7
  9243. vpor %xmm1, %xmm4, %xmm4
  9244. vpslld $31, %xmm7, %xmm0
  9245. vpslld $30, %xmm7, %xmm1
  9246. vpslld $25, %xmm7, %xmm2
  9247. vpxor %xmm1, %xmm0, %xmm0
  9248. vpxor %xmm2, %xmm0, %xmm0
  9249. vmovdqa %xmm0, %xmm1
  9250. vpsrldq $4, %xmm1, %xmm1
  9251. vpslldq $12, %xmm0, %xmm0
  9252. vpxor %xmm0, %xmm7, %xmm7
  9253. vpsrld $0x01, %xmm7, %xmm2
  9254. vpsrld $2, %xmm7, %xmm3
  9255. vpsrld $7, %xmm7, %xmm0
  9256. vpxor %xmm3, %xmm2, %xmm2
  9257. vpxor %xmm0, %xmm2, %xmm2
  9258. vpxor %xmm1, %xmm2, %xmm2
  9259. vpxor %xmm7, %xmm2, %xmm2
  9260. vpxor %xmm2, %xmm4, %xmm4
  9261. addl $16, %ecx
  9262. cmpl %edx, %ecx
  9263. jl L_AES_GCM_init_avx1_calc_iv_16_loop
  9264. movl %r11d, %edx
  9265. cmpl %edx, %ecx
  9266. je L_AES_GCM_init_avx1_calc_iv_done
  9267. L_AES_GCM_init_avx1_calc_iv_lt16:
  9268. subq $16, %rsp
  9269. vpxor %xmm8, %xmm8, %xmm8
  9270. xorl %r13d, %r13d
  9271. vmovdqu %xmm8, (%rsp)
  9272. L_AES_GCM_init_avx1_calc_iv_loop:
  9273. movzbl (%r10,%rcx,1), %r12d
  9274. movb %r12b, (%rsp,%r13,1)
  9275. incl %ecx
  9276. incl %r13d
  9277. cmpl %edx, %ecx
  9278. jl L_AES_GCM_init_avx1_calc_iv_loop
  9279. vmovdqu (%rsp), %xmm8
  9280. addq $16, %rsp
  9281. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm8, %xmm8
  9282. vpxor %xmm8, %xmm4, %xmm4
  9283. # ghash_gfmul_avx
  9284. vpshufd $0x4e, %xmm4, %xmm1
  9285. vpshufd $0x4e, %xmm5, %xmm2
  9286. vpclmulqdq $0x11, %xmm4, %xmm5, %xmm3
  9287. vpclmulqdq $0x00, %xmm4, %xmm5, %xmm0
  9288. vpxor %xmm4, %xmm1, %xmm1
  9289. vpxor %xmm5, %xmm2, %xmm2
  9290. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
  9291. vpxor %xmm0, %xmm1, %xmm1
  9292. vpxor %xmm3, %xmm1, %xmm1
  9293. vmovdqa %xmm0, %xmm7
  9294. vmovdqa %xmm3, %xmm4
  9295. vpslldq $8, %xmm1, %xmm2
  9296. vpsrldq $8, %xmm1, %xmm1
  9297. vpxor %xmm2, %xmm7, %xmm7
  9298. vpxor %xmm1, %xmm4, %xmm4
  9299. vpsrld $31, %xmm7, %xmm0
  9300. vpsrld $31, %xmm4, %xmm1
  9301. vpslld $0x01, %xmm7, %xmm7
  9302. vpslld $0x01, %xmm4, %xmm4
  9303. vpsrldq $12, %xmm0, %xmm2
  9304. vpslldq $4, %xmm0, %xmm0
  9305. vpslldq $4, %xmm1, %xmm1
  9306. vpor %xmm2, %xmm4, %xmm4
  9307. vpor %xmm0, %xmm7, %xmm7
  9308. vpor %xmm1, %xmm4, %xmm4
  9309. vpslld $31, %xmm7, %xmm0
  9310. vpslld $30, %xmm7, %xmm1
  9311. vpslld $25, %xmm7, %xmm2
  9312. vpxor %xmm1, %xmm0, %xmm0
  9313. vpxor %xmm2, %xmm0, %xmm0
  9314. vmovdqa %xmm0, %xmm1
  9315. vpsrldq $4, %xmm1, %xmm1
  9316. vpslldq $12, %xmm0, %xmm0
  9317. vpxor %xmm0, %xmm7, %xmm7
  9318. vpsrld $0x01, %xmm7, %xmm2
  9319. vpsrld $2, %xmm7, %xmm3
  9320. vpsrld $7, %xmm7, %xmm0
  9321. vpxor %xmm3, %xmm2, %xmm2
  9322. vpxor %xmm0, %xmm2, %xmm2
  9323. vpxor %xmm1, %xmm2, %xmm2
  9324. vpxor %xmm7, %xmm2, %xmm2
  9325. vpxor %xmm2, %xmm4, %xmm4
  9326. L_AES_GCM_init_avx1_calc_iv_done:
  9327. # T = Encrypt counter
  9328. vpxor %xmm0, %xmm0, %xmm0
  9329. shll $3, %edx
  9330. vpinsrq $0x00, %rdx, %xmm0, %xmm0
  9331. vpxor %xmm0, %xmm4, %xmm4
  9332. # ghash_gfmul_avx
  9333. vpshufd $0x4e, %xmm4, %xmm1
  9334. vpshufd $0x4e, %xmm5, %xmm2
  9335. vpclmulqdq $0x11, %xmm4, %xmm5, %xmm3
  9336. vpclmulqdq $0x00, %xmm4, %xmm5, %xmm0
  9337. vpxor %xmm4, %xmm1, %xmm1
  9338. vpxor %xmm5, %xmm2, %xmm2
  9339. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
  9340. vpxor %xmm0, %xmm1, %xmm1
  9341. vpxor %xmm3, %xmm1, %xmm1
  9342. vmovdqa %xmm0, %xmm7
  9343. vmovdqa %xmm3, %xmm4
  9344. vpslldq $8, %xmm1, %xmm2
  9345. vpsrldq $8, %xmm1, %xmm1
  9346. vpxor %xmm2, %xmm7, %xmm7
  9347. vpxor %xmm1, %xmm4, %xmm4
  9348. vpsrld $31, %xmm7, %xmm0
  9349. vpsrld $31, %xmm4, %xmm1
  9350. vpslld $0x01, %xmm7, %xmm7
  9351. vpslld $0x01, %xmm4, %xmm4
  9352. vpsrldq $12, %xmm0, %xmm2
  9353. vpslldq $4, %xmm0, %xmm0
  9354. vpslldq $4, %xmm1, %xmm1
  9355. vpor %xmm2, %xmm4, %xmm4
  9356. vpor %xmm0, %xmm7, %xmm7
  9357. vpor %xmm1, %xmm4, %xmm4
  9358. vpslld $31, %xmm7, %xmm0
  9359. vpslld $30, %xmm7, %xmm1
  9360. vpslld $25, %xmm7, %xmm2
  9361. vpxor %xmm1, %xmm0, %xmm0
  9362. vpxor %xmm2, %xmm0, %xmm0
  9363. vmovdqa %xmm0, %xmm1
  9364. vpsrldq $4, %xmm1, %xmm1
  9365. vpslldq $12, %xmm0, %xmm0
  9366. vpxor %xmm0, %xmm7, %xmm7
  9367. vpsrld $0x01, %xmm7, %xmm2
  9368. vpsrld $2, %xmm7, %xmm3
  9369. vpsrld $7, %xmm7, %xmm0
  9370. vpxor %xmm3, %xmm2, %xmm2
  9371. vpxor %xmm0, %xmm2, %xmm2
  9372. vpxor %xmm1, %xmm2, %xmm2
  9373. vpxor %xmm7, %xmm2, %xmm2
  9374. vpxor %xmm2, %xmm4, %xmm4
  9375. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm4, %xmm4
  9376. # Encrypt counter
  9377. vmovdqa (%rdi), %xmm8
  9378. vpxor %xmm4, %xmm8, %xmm8
  9379. vaesenc 16(%rdi), %xmm8, %xmm8
  9380. vaesenc 32(%rdi), %xmm8, %xmm8
  9381. vaesenc 48(%rdi), %xmm8, %xmm8
  9382. vaesenc 64(%rdi), %xmm8, %xmm8
  9383. vaesenc 80(%rdi), %xmm8, %xmm8
  9384. vaesenc 96(%rdi), %xmm8, %xmm8
  9385. vaesenc 112(%rdi), %xmm8, %xmm8
  9386. vaesenc 128(%rdi), %xmm8, %xmm8
  9387. vaesenc 144(%rdi), %xmm8, %xmm8
  9388. cmpl $11, %esi
  9389. vmovdqa 160(%rdi), %xmm9
  9390. jl L_AES_GCM_init_avx1_calc_iv_2_aesenc_avx_last
  9391. vaesenc %xmm9, %xmm8, %xmm8
  9392. vaesenc 176(%rdi), %xmm8, %xmm8
  9393. cmpl $13, %esi
  9394. vmovdqa 192(%rdi), %xmm9
  9395. jl L_AES_GCM_init_avx1_calc_iv_2_aesenc_avx_last
  9396. vaesenc %xmm9, %xmm8, %xmm8
  9397. vaesenc 208(%rdi), %xmm8, %xmm8
  9398. vmovdqa 224(%rdi), %xmm9
  9399. L_AES_GCM_init_avx1_calc_iv_2_aesenc_avx_last:
  9400. vaesenclast %xmm9, %xmm8, %xmm8
  9401. vmovdqa %xmm8, %xmm15
  9402. L_AES_GCM_init_avx1_iv_done:
  9403. vmovdqa %xmm15, (%rax)
  9404. vpshufb L_avx1_aes_gcm_bswap_epi64(%rip), %xmm4, %xmm4
  9405. vpaddd L_avx1_aes_gcm_one(%rip), %xmm4, %xmm4
  9406. vmovdqa %xmm5, (%r8)
  9407. vmovdqa %xmm4, (%r9)
  9408. vzeroupper
  9409. addq $16, %rsp
  9410. popq %r13
  9411. popq %r12
  9412. repz retq
  9413. #ifndef __APPLE__
  9414. .size AES_GCM_init_avx1,.-AES_GCM_init_avx1
  9415. #endif /* __APPLE__ */
  9416. #ifndef __APPLE__
  9417. .text
  9418. .globl AES_GCM_aad_update_avx1
  9419. .type AES_GCM_aad_update_avx1,@function
  9420. .align 16
  9421. AES_GCM_aad_update_avx1:
  9422. #else
  9423. .section __TEXT,__text
  9424. .globl _AES_GCM_aad_update_avx1
  9425. .p2align 4
  9426. _AES_GCM_aad_update_avx1:
  9427. #endif /* __APPLE__ */
  9428. movq %rcx, %rax
  9429. vmovdqa (%rdx), %xmm5
  9430. vmovdqa (%rax), %xmm6
  9431. xorl %ecx, %ecx
  9432. L_AES_GCM_aad_update_avx1_16_loop:
  9433. vmovdqu (%rdi,%rcx,1), %xmm8
  9434. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm8, %xmm8
  9435. vpxor %xmm8, %xmm5, %xmm5
  9436. # ghash_gfmul_avx
  9437. vpshufd $0x4e, %xmm5, %xmm1
  9438. vpshufd $0x4e, %xmm6, %xmm2
  9439. vpclmulqdq $0x11, %xmm5, %xmm6, %xmm3
  9440. vpclmulqdq $0x00, %xmm5, %xmm6, %xmm0
  9441. vpxor %xmm5, %xmm1, %xmm1
  9442. vpxor %xmm6, %xmm2, %xmm2
  9443. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
  9444. vpxor %xmm0, %xmm1, %xmm1
  9445. vpxor %xmm3, %xmm1, %xmm1
  9446. vmovdqa %xmm0, %xmm4
  9447. vmovdqa %xmm3, %xmm5
  9448. vpslldq $8, %xmm1, %xmm2
  9449. vpsrldq $8, %xmm1, %xmm1
  9450. vpxor %xmm2, %xmm4, %xmm4
  9451. vpxor %xmm1, %xmm5, %xmm5
  9452. vpsrld $31, %xmm4, %xmm0
  9453. vpsrld $31, %xmm5, %xmm1
  9454. vpslld $0x01, %xmm4, %xmm4
  9455. vpslld $0x01, %xmm5, %xmm5
  9456. vpsrldq $12, %xmm0, %xmm2
  9457. vpslldq $4, %xmm0, %xmm0
  9458. vpslldq $4, %xmm1, %xmm1
  9459. vpor %xmm2, %xmm5, %xmm5
  9460. vpor %xmm0, %xmm4, %xmm4
  9461. vpor %xmm1, %xmm5, %xmm5
  9462. vpslld $31, %xmm4, %xmm0
  9463. vpslld $30, %xmm4, %xmm1
  9464. vpslld $25, %xmm4, %xmm2
  9465. vpxor %xmm1, %xmm0, %xmm0
  9466. vpxor %xmm2, %xmm0, %xmm0
  9467. vmovdqa %xmm0, %xmm1
  9468. vpsrldq $4, %xmm1, %xmm1
  9469. vpslldq $12, %xmm0, %xmm0
  9470. vpxor %xmm0, %xmm4, %xmm4
  9471. vpsrld $0x01, %xmm4, %xmm2
  9472. vpsrld $2, %xmm4, %xmm3
  9473. vpsrld $7, %xmm4, %xmm0
  9474. vpxor %xmm3, %xmm2, %xmm2
  9475. vpxor %xmm0, %xmm2, %xmm2
  9476. vpxor %xmm1, %xmm2, %xmm2
  9477. vpxor %xmm4, %xmm2, %xmm2
  9478. vpxor %xmm2, %xmm5, %xmm5
  9479. addl $16, %ecx
  9480. cmpl %esi, %ecx
  9481. jl L_AES_GCM_aad_update_avx1_16_loop
  9482. vmovdqa %xmm5, (%rdx)
  9483. vzeroupper
  9484. repz retq
  9485. #ifndef __APPLE__
  9486. .size AES_GCM_aad_update_avx1,.-AES_GCM_aad_update_avx1
  9487. #endif /* __APPLE__ */
  9488. #ifndef __APPLE__
  9489. .text
  9490. .globl AES_GCM_encrypt_block_avx1
  9491. .type AES_GCM_encrypt_block_avx1,@function
  9492. .align 16
  9493. AES_GCM_encrypt_block_avx1:
  9494. #else
  9495. .section __TEXT,__text
  9496. .globl _AES_GCM_encrypt_block_avx1
  9497. .p2align 4
  9498. _AES_GCM_encrypt_block_avx1:
  9499. #endif /* __APPLE__ */
  9500. movq %rdx, %r10
  9501. movq %rcx, %r11
  9502. vmovdqa (%r8), %xmm9
  9503. vpshufb L_avx1_aes_gcm_bswap_epi64(%rip), %xmm9, %xmm8
  9504. vpaddd L_avx1_aes_gcm_one(%rip), %xmm9, %xmm9
  9505. vmovdqa %xmm9, (%r8)
  9506. vpxor (%rdi), %xmm8, %xmm8
  9507. vaesenc 16(%rdi), %xmm8, %xmm8
  9508. vaesenc 32(%rdi), %xmm8, %xmm8
  9509. vaesenc 48(%rdi), %xmm8, %xmm8
  9510. vaesenc 64(%rdi), %xmm8, %xmm8
  9511. vaesenc 80(%rdi), %xmm8, %xmm8
  9512. vaesenc 96(%rdi), %xmm8, %xmm8
  9513. vaesenc 112(%rdi), %xmm8, %xmm8
  9514. vaesenc 128(%rdi), %xmm8, %xmm8
  9515. vaesenc 144(%rdi), %xmm8, %xmm8
  9516. cmpl $11, %esi
  9517. vmovdqa 160(%rdi), %xmm9
  9518. jl L_AES_GCM_encrypt_block_avx1_aesenc_block_last
  9519. vaesenc %xmm9, %xmm8, %xmm8
  9520. vaesenc 176(%rdi), %xmm8, %xmm8
  9521. cmpl $13, %esi
  9522. vmovdqa 192(%rdi), %xmm9
  9523. jl L_AES_GCM_encrypt_block_avx1_aesenc_block_last
  9524. vaesenc %xmm9, %xmm8, %xmm8
  9525. vaesenc 208(%rdi), %xmm8, %xmm8
  9526. vmovdqa 224(%rdi), %xmm9
  9527. L_AES_GCM_encrypt_block_avx1_aesenc_block_last:
  9528. vaesenclast %xmm9, %xmm8, %xmm8
  9529. vmovdqu (%r11), %xmm9
  9530. vpxor %xmm9, %xmm8, %xmm8
  9531. vmovdqu %xmm8, (%r10)
  9532. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm8, %xmm8
  9533. vzeroupper
  9534. repz retq
  9535. #ifndef __APPLE__
  9536. .size AES_GCM_encrypt_block_avx1,.-AES_GCM_encrypt_block_avx1
  9537. #endif /* __APPLE__ */
  9538. #ifndef __APPLE__
  9539. .text
  9540. .globl AES_GCM_ghash_block_avx1
  9541. .type AES_GCM_ghash_block_avx1,@function
  9542. .align 16
  9543. AES_GCM_ghash_block_avx1:
  9544. #else
  9545. .section __TEXT,__text
  9546. .globl _AES_GCM_ghash_block_avx1
  9547. .p2align 4
  9548. _AES_GCM_ghash_block_avx1:
  9549. #endif /* __APPLE__ */
  9550. vmovdqa (%rsi), %xmm4
  9551. vmovdqa (%rdx), %xmm5
  9552. vmovdqu (%rdi), %xmm8
  9553. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm8, %xmm8
  9554. vpxor %xmm8, %xmm4, %xmm4
  9555. # ghash_gfmul_avx
  9556. vpshufd $0x4e, %xmm4, %xmm1
  9557. vpshufd $0x4e, %xmm5, %xmm2
  9558. vpclmulqdq $0x11, %xmm4, %xmm5, %xmm3
  9559. vpclmulqdq $0x00, %xmm4, %xmm5, %xmm0
  9560. vpxor %xmm4, %xmm1, %xmm1
  9561. vpxor %xmm5, %xmm2, %xmm2
  9562. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
  9563. vpxor %xmm0, %xmm1, %xmm1
  9564. vpxor %xmm3, %xmm1, %xmm1
  9565. vmovdqa %xmm0, %xmm6
  9566. vmovdqa %xmm3, %xmm4
  9567. vpslldq $8, %xmm1, %xmm2
  9568. vpsrldq $8, %xmm1, %xmm1
  9569. vpxor %xmm2, %xmm6, %xmm6
  9570. vpxor %xmm1, %xmm4, %xmm4
  9571. vpsrld $31, %xmm6, %xmm0
  9572. vpsrld $31, %xmm4, %xmm1
  9573. vpslld $0x01, %xmm6, %xmm6
  9574. vpslld $0x01, %xmm4, %xmm4
  9575. vpsrldq $12, %xmm0, %xmm2
  9576. vpslldq $4, %xmm0, %xmm0
  9577. vpslldq $4, %xmm1, %xmm1
  9578. vpor %xmm2, %xmm4, %xmm4
  9579. vpor %xmm0, %xmm6, %xmm6
  9580. vpor %xmm1, %xmm4, %xmm4
  9581. vpslld $31, %xmm6, %xmm0
  9582. vpslld $30, %xmm6, %xmm1
  9583. vpslld $25, %xmm6, %xmm2
  9584. vpxor %xmm1, %xmm0, %xmm0
  9585. vpxor %xmm2, %xmm0, %xmm0
  9586. vmovdqa %xmm0, %xmm1
  9587. vpsrldq $4, %xmm1, %xmm1
  9588. vpslldq $12, %xmm0, %xmm0
  9589. vpxor %xmm0, %xmm6, %xmm6
  9590. vpsrld $0x01, %xmm6, %xmm2
  9591. vpsrld $2, %xmm6, %xmm3
  9592. vpsrld $7, %xmm6, %xmm0
  9593. vpxor %xmm3, %xmm2, %xmm2
  9594. vpxor %xmm0, %xmm2, %xmm2
  9595. vpxor %xmm1, %xmm2, %xmm2
  9596. vpxor %xmm6, %xmm2, %xmm2
  9597. vpxor %xmm2, %xmm4, %xmm4
  9598. vmovdqa %xmm4, (%rsi)
  9599. vzeroupper
  9600. repz retq
  9601. #ifndef __APPLE__
  9602. .size AES_GCM_ghash_block_avx1,.-AES_GCM_ghash_block_avx1
  9603. #endif /* __APPLE__ */
  9604. #ifndef __APPLE__
  9605. .text
  9606. .globl AES_GCM_encrypt_update_avx1
  9607. .type AES_GCM_encrypt_update_avx1,@function
  9608. .align 16
  9609. AES_GCM_encrypt_update_avx1:
  9610. #else
  9611. .section __TEXT,__text
  9612. .globl _AES_GCM_encrypt_update_avx1
  9613. .p2align 4
  9614. _AES_GCM_encrypt_update_avx1:
  9615. #endif /* __APPLE__ */
  9616. pushq %r13
  9617. pushq %r12
  9618. pushq %r14
  9619. movq %rdx, %r10
  9620. movq %rcx, %r11
  9621. movq 32(%rsp), %rax
  9622. movq 40(%rsp), %r12
  9623. subq $0xa0, %rsp
  9624. vmovdqa (%r9), %xmm6
  9625. vmovdqa (%rax), %xmm5
  9626. vpsrlq $63, %xmm5, %xmm9
  9627. vpsllq $0x01, %xmm5, %xmm8
  9628. vpslldq $8, %xmm9, %xmm9
  9629. vpor %xmm9, %xmm8, %xmm8
  9630. vpshufd $0xff, %xmm5, %xmm5
  9631. vpsrad $31, %xmm5, %xmm5
  9632. vpand L_avx1_aes_gcm_mod2_128(%rip), %xmm5, %xmm5
  9633. vpxor %xmm8, %xmm5, %xmm5
  9634. xorl %r14d, %r14d
  9635. cmpl $0x80, %r8d
  9636. movl %r8d, %r13d
  9637. jl L_AES_GCM_encrypt_update_avx1_done_128
  9638. andl $0xffffff80, %r13d
  9639. vmovdqa %xmm6, %xmm2
  9640. # H ^ 1
  9641. vmovdqa %xmm5, (%rsp)
  9642. # H ^ 2
  9643. vpclmulqdq $0x00, %xmm5, %xmm5, %xmm8
  9644. vpclmulqdq $0x11, %xmm5, %xmm5, %xmm0
  9645. vpslld $31, %xmm8, %xmm12
  9646. vpslld $30, %xmm8, %xmm13
  9647. vpslld $25, %xmm8, %xmm14
  9648. vpxor %xmm13, %xmm12, %xmm12
  9649. vpxor %xmm14, %xmm12, %xmm12
  9650. vpsrldq $4, %xmm12, %xmm13
  9651. vpslldq $12, %xmm12, %xmm12
  9652. vpxor %xmm12, %xmm8, %xmm8
  9653. vpsrld $0x01, %xmm8, %xmm14
  9654. vpsrld $2, %xmm8, %xmm10
  9655. vpsrld $7, %xmm8, %xmm9
  9656. vpxor %xmm10, %xmm14, %xmm14
  9657. vpxor %xmm9, %xmm14, %xmm14
  9658. vpxor %xmm13, %xmm14, %xmm14
  9659. vpxor %xmm8, %xmm14, %xmm14
  9660. vpxor %xmm14, %xmm0, %xmm0
  9661. vmovdqa %xmm0, 16(%rsp)
  9662. # H ^ 3
  9663. # ghash_gfmul_red_avx
  9664. vpshufd $0x4e, %xmm5, %xmm9
  9665. vpshufd $0x4e, %xmm0, %xmm10
  9666. vpclmulqdq $0x11, %xmm5, %xmm0, %xmm11
  9667. vpclmulqdq $0x00, %xmm5, %xmm0, %xmm8
  9668. vpxor %xmm5, %xmm9, %xmm9
  9669. vpxor %xmm0, %xmm10, %xmm10
  9670. vpclmulqdq $0x00, %xmm10, %xmm9, %xmm9
  9671. vpxor %xmm8, %xmm9, %xmm9
  9672. vpxor %xmm11, %xmm9, %xmm9
  9673. vpslldq $8, %xmm9, %xmm10
  9674. vpsrldq $8, %xmm9, %xmm9
  9675. vpxor %xmm10, %xmm8, %xmm8
  9676. vpxor %xmm9, %xmm11, %xmm1
  9677. vpslld $31, %xmm8, %xmm12
  9678. vpslld $30, %xmm8, %xmm13
  9679. vpslld $25, %xmm8, %xmm14
  9680. vpxor %xmm13, %xmm12, %xmm12
  9681. vpxor %xmm14, %xmm12, %xmm12
  9682. vpsrldq $4, %xmm12, %xmm13
  9683. vpslldq $12, %xmm12, %xmm12
  9684. vpxor %xmm12, %xmm8, %xmm8
  9685. vpsrld $0x01, %xmm8, %xmm14
  9686. vpsrld $2, %xmm8, %xmm10
  9687. vpsrld $7, %xmm8, %xmm9
  9688. vpxor %xmm10, %xmm14, %xmm14
  9689. vpxor %xmm9, %xmm14, %xmm14
  9690. vpxor %xmm13, %xmm14, %xmm14
  9691. vpxor %xmm8, %xmm14, %xmm14
  9692. vpxor %xmm14, %xmm1, %xmm1
  9693. vmovdqa %xmm1, 32(%rsp)
  9694. # H ^ 4
  9695. vpclmulqdq $0x00, %xmm0, %xmm0, %xmm8
  9696. vpclmulqdq $0x11, %xmm0, %xmm0, %xmm3
  9697. vpslld $31, %xmm8, %xmm12
  9698. vpslld $30, %xmm8, %xmm13
  9699. vpslld $25, %xmm8, %xmm14
  9700. vpxor %xmm13, %xmm12, %xmm12
  9701. vpxor %xmm14, %xmm12, %xmm12
  9702. vpsrldq $4, %xmm12, %xmm13
  9703. vpslldq $12, %xmm12, %xmm12
  9704. vpxor %xmm12, %xmm8, %xmm8
  9705. vpsrld $0x01, %xmm8, %xmm14
  9706. vpsrld $2, %xmm8, %xmm10
  9707. vpsrld $7, %xmm8, %xmm9
  9708. vpxor %xmm10, %xmm14, %xmm14
  9709. vpxor %xmm9, %xmm14, %xmm14
  9710. vpxor %xmm13, %xmm14, %xmm14
  9711. vpxor %xmm8, %xmm14, %xmm14
  9712. vpxor %xmm14, %xmm3, %xmm3
  9713. vmovdqa %xmm3, 48(%rsp)
  9714. # H ^ 5
  9715. # ghash_gfmul_red_avx
  9716. vpshufd $0x4e, %xmm0, %xmm9
  9717. vpshufd $0x4e, %xmm1, %xmm10
  9718. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm11
  9719. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm8
  9720. vpxor %xmm0, %xmm9, %xmm9
  9721. vpxor %xmm1, %xmm10, %xmm10
  9722. vpclmulqdq $0x00, %xmm10, %xmm9, %xmm9
  9723. vpxor %xmm8, %xmm9, %xmm9
  9724. vpxor %xmm11, %xmm9, %xmm9
  9725. vpslldq $8, %xmm9, %xmm10
  9726. vpsrldq $8, %xmm9, %xmm9
  9727. vpxor %xmm10, %xmm8, %xmm8
  9728. vpxor %xmm9, %xmm11, %xmm7
  9729. vpslld $31, %xmm8, %xmm12
  9730. vpslld $30, %xmm8, %xmm13
  9731. vpslld $25, %xmm8, %xmm14
  9732. vpxor %xmm13, %xmm12, %xmm12
  9733. vpxor %xmm14, %xmm12, %xmm12
  9734. vpsrldq $4, %xmm12, %xmm13
  9735. vpslldq $12, %xmm12, %xmm12
  9736. vpxor %xmm12, %xmm8, %xmm8
  9737. vpsrld $0x01, %xmm8, %xmm14
  9738. vpsrld $2, %xmm8, %xmm10
  9739. vpsrld $7, %xmm8, %xmm9
  9740. vpxor %xmm10, %xmm14, %xmm14
  9741. vpxor %xmm9, %xmm14, %xmm14
  9742. vpxor %xmm13, %xmm14, %xmm14
  9743. vpxor %xmm8, %xmm14, %xmm14
  9744. vpxor %xmm14, %xmm7, %xmm7
  9745. vmovdqa %xmm7, 64(%rsp)
  9746. # H ^ 6
  9747. vpclmulqdq $0x00, %xmm1, %xmm1, %xmm8
  9748. vpclmulqdq $0x11, %xmm1, %xmm1, %xmm7
  9749. vpslld $31, %xmm8, %xmm12
  9750. vpslld $30, %xmm8, %xmm13
  9751. vpslld $25, %xmm8, %xmm14
  9752. vpxor %xmm13, %xmm12, %xmm12
  9753. vpxor %xmm14, %xmm12, %xmm12
  9754. vpsrldq $4, %xmm12, %xmm13
  9755. vpslldq $12, %xmm12, %xmm12
  9756. vpxor %xmm12, %xmm8, %xmm8
  9757. vpsrld $0x01, %xmm8, %xmm14
  9758. vpsrld $2, %xmm8, %xmm10
  9759. vpsrld $7, %xmm8, %xmm9
  9760. vpxor %xmm10, %xmm14, %xmm14
  9761. vpxor %xmm9, %xmm14, %xmm14
  9762. vpxor %xmm13, %xmm14, %xmm14
  9763. vpxor %xmm8, %xmm14, %xmm14
  9764. vpxor %xmm14, %xmm7, %xmm7
  9765. vmovdqa %xmm7, 80(%rsp)
  9766. # H ^ 7
  9767. # ghash_gfmul_red_avx
  9768. vpshufd $0x4e, %xmm1, %xmm9
  9769. vpshufd $0x4e, %xmm3, %xmm10
  9770. vpclmulqdq $0x11, %xmm1, %xmm3, %xmm11
  9771. vpclmulqdq $0x00, %xmm1, %xmm3, %xmm8
  9772. vpxor %xmm1, %xmm9, %xmm9
  9773. vpxor %xmm3, %xmm10, %xmm10
  9774. vpclmulqdq $0x00, %xmm10, %xmm9, %xmm9
  9775. vpxor %xmm8, %xmm9, %xmm9
  9776. vpxor %xmm11, %xmm9, %xmm9
  9777. vpslldq $8, %xmm9, %xmm10
  9778. vpsrldq $8, %xmm9, %xmm9
  9779. vpxor %xmm10, %xmm8, %xmm8
  9780. vpxor %xmm9, %xmm11, %xmm7
  9781. vpslld $31, %xmm8, %xmm12
  9782. vpslld $30, %xmm8, %xmm13
  9783. vpslld $25, %xmm8, %xmm14
  9784. vpxor %xmm13, %xmm12, %xmm12
  9785. vpxor %xmm14, %xmm12, %xmm12
  9786. vpsrldq $4, %xmm12, %xmm13
  9787. vpslldq $12, %xmm12, %xmm12
  9788. vpxor %xmm12, %xmm8, %xmm8
  9789. vpsrld $0x01, %xmm8, %xmm14
  9790. vpsrld $2, %xmm8, %xmm10
  9791. vpsrld $7, %xmm8, %xmm9
  9792. vpxor %xmm10, %xmm14, %xmm14
  9793. vpxor %xmm9, %xmm14, %xmm14
  9794. vpxor %xmm13, %xmm14, %xmm14
  9795. vpxor %xmm8, %xmm14, %xmm14
  9796. vpxor %xmm14, %xmm7, %xmm7
  9797. vmovdqa %xmm7, 96(%rsp)
  9798. # H ^ 8
  9799. vpclmulqdq $0x00, %xmm3, %xmm3, %xmm8
  9800. vpclmulqdq $0x11, %xmm3, %xmm3, %xmm7
  9801. vpslld $31, %xmm8, %xmm12
  9802. vpslld $30, %xmm8, %xmm13
  9803. vpslld $25, %xmm8, %xmm14
  9804. vpxor %xmm13, %xmm12, %xmm12
  9805. vpxor %xmm14, %xmm12, %xmm12
  9806. vpsrldq $4, %xmm12, %xmm13
  9807. vpslldq $12, %xmm12, %xmm12
  9808. vpxor %xmm12, %xmm8, %xmm8
  9809. vpsrld $0x01, %xmm8, %xmm14
  9810. vpsrld $2, %xmm8, %xmm10
  9811. vpsrld $7, %xmm8, %xmm9
  9812. vpxor %xmm10, %xmm14, %xmm14
  9813. vpxor %xmm9, %xmm14, %xmm14
  9814. vpxor %xmm13, %xmm14, %xmm14
  9815. vpxor %xmm8, %xmm14, %xmm14
  9816. vpxor %xmm14, %xmm7, %xmm7
  9817. vmovdqa %xmm7, 112(%rsp)
  9818. # First 128 bytes of input
  9819. vmovdqa (%r12), %xmm0
  9820. vmovdqa L_avx1_aes_gcm_bswap_epi64(%rip), %xmm1
  9821. vpshufb %xmm1, %xmm0, %xmm8
  9822. vpaddd L_avx1_aes_gcm_one(%rip), %xmm0, %xmm9
  9823. vpshufb %xmm1, %xmm9, %xmm9
  9824. vpaddd L_avx1_aes_gcm_two(%rip), %xmm0, %xmm10
  9825. vpshufb %xmm1, %xmm10, %xmm10
  9826. vpaddd L_avx1_aes_gcm_three(%rip), %xmm0, %xmm11
  9827. vpshufb %xmm1, %xmm11, %xmm11
  9828. vpaddd L_avx1_aes_gcm_four(%rip), %xmm0, %xmm12
  9829. vpshufb %xmm1, %xmm12, %xmm12
  9830. vpaddd L_avx1_aes_gcm_five(%rip), %xmm0, %xmm13
  9831. vpshufb %xmm1, %xmm13, %xmm13
  9832. vpaddd L_avx1_aes_gcm_six(%rip), %xmm0, %xmm14
  9833. vpshufb %xmm1, %xmm14, %xmm14
  9834. vpaddd L_avx1_aes_gcm_seven(%rip), %xmm0, %xmm15
  9835. vpshufb %xmm1, %xmm15, %xmm15
  9836. vpaddd L_avx1_aes_gcm_eight(%rip), %xmm0, %xmm0
  9837. vmovdqa (%rdi), %xmm7
  9838. vmovdqa %xmm0, (%r12)
  9839. vpxor %xmm7, %xmm8, %xmm8
  9840. vpxor %xmm7, %xmm9, %xmm9
  9841. vpxor %xmm7, %xmm10, %xmm10
  9842. vpxor %xmm7, %xmm11, %xmm11
  9843. vpxor %xmm7, %xmm12, %xmm12
  9844. vpxor %xmm7, %xmm13, %xmm13
  9845. vpxor %xmm7, %xmm14, %xmm14
  9846. vpxor %xmm7, %xmm15, %xmm15
  9847. vmovdqa 16(%rdi), %xmm7
  9848. vaesenc %xmm7, %xmm8, %xmm8
  9849. vaesenc %xmm7, %xmm9, %xmm9
  9850. vaesenc %xmm7, %xmm10, %xmm10
  9851. vaesenc %xmm7, %xmm11, %xmm11
  9852. vaesenc %xmm7, %xmm12, %xmm12
  9853. vaesenc %xmm7, %xmm13, %xmm13
  9854. vaesenc %xmm7, %xmm14, %xmm14
  9855. vaesenc %xmm7, %xmm15, %xmm15
  9856. vmovdqa 32(%rdi), %xmm7
  9857. vaesenc %xmm7, %xmm8, %xmm8
  9858. vaesenc %xmm7, %xmm9, %xmm9
  9859. vaesenc %xmm7, %xmm10, %xmm10
  9860. vaesenc %xmm7, %xmm11, %xmm11
  9861. vaesenc %xmm7, %xmm12, %xmm12
  9862. vaesenc %xmm7, %xmm13, %xmm13
  9863. vaesenc %xmm7, %xmm14, %xmm14
  9864. vaesenc %xmm7, %xmm15, %xmm15
  9865. vmovdqa 48(%rdi), %xmm7
  9866. vaesenc %xmm7, %xmm8, %xmm8
  9867. vaesenc %xmm7, %xmm9, %xmm9
  9868. vaesenc %xmm7, %xmm10, %xmm10
  9869. vaesenc %xmm7, %xmm11, %xmm11
  9870. vaesenc %xmm7, %xmm12, %xmm12
  9871. vaesenc %xmm7, %xmm13, %xmm13
  9872. vaesenc %xmm7, %xmm14, %xmm14
  9873. vaesenc %xmm7, %xmm15, %xmm15
  9874. vmovdqa 64(%rdi), %xmm7
  9875. vaesenc %xmm7, %xmm8, %xmm8
  9876. vaesenc %xmm7, %xmm9, %xmm9
  9877. vaesenc %xmm7, %xmm10, %xmm10
  9878. vaesenc %xmm7, %xmm11, %xmm11
  9879. vaesenc %xmm7, %xmm12, %xmm12
  9880. vaesenc %xmm7, %xmm13, %xmm13
  9881. vaesenc %xmm7, %xmm14, %xmm14
  9882. vaesenc %xmm7, %xmm15, %xmm15
  9883. vmovdqa 80(%rdi), %xmm7
  9884. vaesenc %xmm7, %xmm8, %xmm8
  9885. vaesenc %xmm7, %xmm9, %xmm9
  9886. vaesenc %xmm7, %xmm10, %xmm10
  9887. vaesenc %xmm7, %xmm11, %xmm11
  9888. vaesenc %xmm7, %xmm12, %xmm12
  9889. vaesenc %xmm7, %xmm13, %xmm13
  9890. vaesenc %xmm7, %xmm14, %xmm14
  9891. vaesenc %xmm7, %xmm15, %xmm15
  9892. vmovdqa 96(%rdi), %xmm7
  9893. vaesenc %xmm7, %xmm8, %xmm8
  9894. vaesenc %xmm7, %xmm9, %xmm9
  9895. vaesenc %xmm7, %xmm10, %xmm10
  9896. vaesenc %xmm7, %xmm11, %xmm11
  9897. vaesenc %xmm7, %xmm12, %xmm12
  9898. vaesenc %xmm7, %xmm13, %xmm13
  9899. vaesenc %xmm7, %xmm14, %xmm14
  9900. vaesenc %xmm7, %xmm15, %xmm15
  9901. vmovdqa 112(%rdi), %xmm7
  9902. vaesenc %xmm7, %xmm8, %xmm8
  9903. vaesenc %xmm7, %xmm9, %xmm9
  9904. vaesenc %xmm7, %xmm10, %xmm10
  9905. vaesenc %xmm7, %xmm11, %xmm11
  9906. vaesenc %xmm7, %xmm12, %xmm12
  9907. vaesenc %xmm7, %xmm13, %xmm13
  9908. vaesenc %xmm7, %xmm14, %xmm14
  9909. vaesenc %xmm7, %xmm15, %xmm15
  9910. vmovdqa 128(%rdi), %xmm7
  9911. vaesenc %xmm7, %xmm8, %xmm8
  9912. vaesenc %xmm7, %xmm9, %xmm9
  9913. vaesenc %xmm7, %xmm10, %xmm10
  9914. vaesenc %xmm7, %xmm11, %xmm11
  9915. vaesenc %xmm7, %xmm12, %xmm12
  9916. vaesenc %xmm7, %xmm13, %xmm13
  9917. vaesenc %xmm7, %xmm14, %xmm14
  9918. vaesenc %xmm7, %xmm15, %xmm15
  9919. vmovdqa 144(%rdi), %xmm7
  9920. vaesenc %xmm7, %xmm8, %xmm8
  9921. vaesenc %xmm7, %xmm9, %xmm9
  9922. vaesenc %xmm7, %xmm10, %xmm10
  9923. vaesenc %xmm7, %xmm11, %xmm11
  9924. vaesenc %xmm7, %xmm12, %xmm12
  9925. vaesenc %xmm7, %xmm13, %xmm13
  9926. vaesenc %xmm7, %xmm14, %xmm14
  9927. vaesenc %xmm7, %xmm15, %xmm15
  9928. cmpl $11, %esi
  9929. vmovdqa 160(%rdi), %xmm7
  9930. jl L_AES_GCM_encrypt_update_avx1_aesenc_128_enc_done
  9931. vaesenc %xmm7, %xmm8, %xmm8
  9932. vaesenc %xmm7, %xmm9, %xmm9
  9933. vaesenc %xmm7, %xmm10, %xmm10
  9934. vaesenc %xmm7, %xmm11, %xmm11
  9935. vaesenc %xmm7, %xmm12, %xmm12
  9936. vaesenc %xmm7, %xmm13, %xmm13
  9937. vaesenc %xmm7, %xmm14, %xmm14
  9938. vaesenc %xmm7, %xmm15, %xmm15
  9939. vmovdqa 176(%rdi), %xmm7
  9940. vaesenc %xmm7, %xmm8, %xmm8
  9941. vaesenc %xmm7, %xmm9, %xmm9
  9942. vaesenc %xmm7, %xmm10, %xmm10
  9943. vaesenc %xmm7, %xmm11, %xmm11
  9944. vaesenc %xmm7, %xmm12, %xmm12
  9945. vaesenc %xmm7, %xmm13, %xmm13
  9946. vaesenc %xmm7, %xmm14, %xmm14
  9947. vaesenc %xmm7, %xmm15, %xmm15
  9948. cmpl $13, %esi
  9949. vmovdqa 192(%rdi), %xmm7
  9950. jl L_AES_GCM_encrypt_update_avx1_aesenc_128_enc_done
  9951. vaesenc %xmm7, %xmm8, %xmm8
  9952. vaesenc %xmm7, %xmm9, %xmm9
  9953. vaesenc %xmm7, %xmm10, %xmm10
  9954. vaesenc %xmm7, %xmm11, %xmm11
  9955. vaesenc %xmm7, %xmm12, %xmm12
  9956. vaesenc %xmm7, %xmm13, %xmm13
  9957. vaesenc %xmm7, %xmm14, %xmm14
  9958. vaesenc %xmm7, %xmm15, %xmm15
  9959. vmovdqa 208(%rdi), %xmm7
  9960. vaesenc %xmm7, %xmm8, %xmm8
  9961. vaesenc %xmm7, %xmm9, %xmm9
  9962. vaesenc %xmm7, %xmm10, %xmm10
  9963. vaesenc %xmm7, %xmm11, %xmm11
  9964. vaesenc %xmm7, %xmm12, %xmm12
  9965. vaesenc %xmm7, %xmm13, %xmm13
  9966. vaesenc %xmm7, %xmm14, %xmm14
  9967. vaesenc %xmm7, %xmm15, %xmm15
  9968. vmovdqa 224(%rdi), %xmm7
  9969. L_AES_GCM_encrypt_update_avx1_aesenc_128_enc_done:
  9970. vaesenclast %xmm7, %xmm8, %xmm8
  9971. vaesenclast %xmm7, %xmm9, %xmm9
  9972. vmovdqu (%r11), %xmm0
  9973. vmovdqu 16(%r11), %xmm1
  9974. vpxor %xmm0, %xmm8, %xmm8
  9975. vpxor %xmm1, %xmm9, %xmm9
  9976. vmovdqu %xmm8, (%r10)
  9977. vmovdqu %xmm9, 16(%r10)
  9978. vaesenclast %xmm7, %xmm10, %xmm10
  9979. vaesenclast %xmm7, %xmm11, %xmm11
  9980. vmovdqu 32(%r11), %xmm0
  9981. vmovdqu 48(%r11), %xmm1
  9982. vpxor %xmm0, %xmm10, %xmm10
  9983. vpxor %xmm1, %xmm11, %xmm11
  9984. vmovdqu %xmm10, 32(%r10)
  9985. vmovdqu %xmm11, 48(%r10)
  9986. vaesenclast %xmm7, %xmm12, %xmm12
  9987. vaesenclast %xmm7, %xmm13, %xmm13
  9988. vmovdqu 64(%r11), %xmm0
  9989. vmovdqu 80(%r11), %xmm1
  9990. vpxor %xmm0, %xmm12, %xmm12
  9991. vpxor %xmm1, %xmm13, %xmm13
  9992. vmovdqu %xmm12, 64(%r10)
  9993. vmovdqu %xmm13, 80(%r10)
  9994. vaesenclast %xmm7, %xmm14, %xmm14
  9995. vaesenclast %xmm7, %xmm15, %xmm15
  9996. vmovdqu 96(%r11), %xmm0
  9997. vmovdqu 112(%r11), %xmm1
  9998. vpxor %xmm0, %xmm14, %xmm14
  9999. vpxor %xmm1, %xmm15, %xmm15
  10000. vmovdqu %xmm14, 96(%r10)
  10001. vmovdqu %xmm15, 112(%r10)
  10002. cmpl $0x80, %r13d
  10003. movl $0x80, %r14d
  10004. jle L_AES_GCM_encrypt_update_avx1_end_128
  10005. # More 128 bytes of input
  10006. L_AES_GCM_encrypt_update_avx1_ghash_128:
  10007. leaq (%r11,%r14,1), %rcx
  10008. leaq (%r10,%r14,1), %rdx
  10009. vmovdqa (%r12), %xmm0
  10010. vmovdqa L_avx1_aes_gcm_bswap_epi64(%rip), %xmm1
  10011. vpshufb %xmm1, %xmm0, %xmm8
  10012. vpaddd L_avx1_aes_gcm_one(%rip), %xmm0, %xmm9
  10013. vpshufb %xmm1, %xmm9, %xmm9
  10014. vpaddd L_avx1_aes_gcm_two(%rip), %xmm0, %xmm10
  10015. vpshufb %xmm1, %xmm10, %xmm10
  10016. vpaddd L_avx1_aes_gcm_three(%rip), %xmm0, %xmm11
  10017. vpshufb %xmm1, %xmm11, %xmm11
  10018. vpaddd L_avx1_aes_gcm_four(%rip), %xmm0, %xmm12
  10019. vpshufb %xmm1, %xmm12, %xmm12
  10020. vpaddd L_avx1_aes_gcm_five(%rip), %xmm0, %xmm13
  10021. vpshufb %xmm1, %xmm13, %xmm13
  10022. vpaddd L_avx1_aes_gcm_six(%rip), %xmm0, %xmm14
  10023. vpshufb %xmm1, %xmm14, %xmm14
  10024. vpaddd L_avx1_aes_gcm_seven(%rip), %xmm0, %xmm15
  10025. vpshufb %xmm1, %xmm15, %xmm15
  10026. vpaddd L_avx1_aes_gcm_eight(%rip), %xmm0, %xmm0
  10027. vmovdqa (%rdi), %xmm7
  10028. vmovdqa %xmm0, (%r12)
  10029. vpxor %xmm7, %xmm8, %xmm8
  10030. vpxor %xmm7, %xmm9, %xmm9
  10031. vpxor %xmm7, %xmm10, %xmm10
  10032. vpxor %xmm7, %xmm11, %xmm11
  10033. vpxor %xmm7, %xmm12, %xmm12
  10034. vpxor %xmm7, %xmm13, %xmm13
  10035. vpxor %xmm7, %xmm14, %xmm14
  10036. vpxor %xmm7, %xmm15, %xmm15
  10037. vmovdqa 112(%rsp), %xmm7
  10038. vmovdqu -128(%rdx), %xmm0
  10039. vaesenc 16(%rdi), %xmm8, %xmm8
  10040. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  10041. vpxor %xmm2, %xmm0, %xmm0
  10042. vpshufd $0x4e, %xmm7, %xmm1
  10043. vpshufd $0x4e, %xmm0, %xmm5
  10044. vpxor %xmm7, %xmm1, %xmm1
  10045. vpxor %xmm0, %xmm5, %xmm5
  10046. vpclmulqdq $0x11, %xmm7, %xmm0, %xmm3
  10047. vaesenc 16(%rdi), %xmm9, %xmm9
  10048. vaesenc 16(%rdi), %xmm10, %xmm10
  10049. vpclmulqdq $0x00, %xmm7, %xmm0, %xmm2
  10050. vaesenc 16(%rdi), %xmm11, %xmm11
  10051. vaesenc 16(%rdi), %xmm12, %xmm12
  10052. vpclmulqdq $0x00, %xmm5, %xmm1, %xmm1
  10053. vaesenc 16(%rdi), %xmm13, %xmm13
  10054. vaesenc 16(%rdi), %xmm14, %xmm14
  10055. vaesenc 16(%rdi), %xmm15, %xmm15
  10056. vpxor %xmm2, %xmm1, %xmm1
  10057. vpxor %xmm3, %xmm1, %xmm1
  10058. vmovdqa 96(%rsp), %xmm7
  10059. vmovdqu -112(%rdx), %xmm0
  10060. vpshufd $0x4e, %xmm7, %xmm4
  10061. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  10062. vaesenc 32(%rdi), %xmm8, %xmm8
  10063. vpxor %xmm7, %xmm4, %xmm4
  10064. vpshufd $0x4e, %xmm0, %xmm5
  10065. vpxor %xmm0, %xmm5, %xmm5
  10066. vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
  10067. vaesenc 32(%rdi), %xmm9, %xmm9
  10068. vaesenc 32(%rdi), %xmm10, %xmm10
  10069. vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
  10070. vaesenc 32(%rdi), %xmm11, %xmm11
  10071. vaesenc 32(%rdi), %xmm12, %xmm12
  10072. vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
  10073. vaesenc 32(%rdi), %xmm13, %xmm13
  10074. vaesenc 32(%rdi), %xmm14, %xmm14
  10075. vaesenc 32(%rdi), %xmm15, %xmm15
  10076. vpxor %xmm7, %xmm1, %xmm1
  10077. vpxor %xmm7, %xmm2, %xmm2
  10078. vpxor %xmm6, %xmm1, %xmm1
  10079. vpxor %xmm6, %xmm3, %xmm3
  10080. vpxor %xmm4, %xmm1, %xmm1
  10081. vmovdqa 80(%rsp), %xmm7
  10082. vmovdqu -96(%rdx), %xmm0
  10083. vpshufd $0x4e, %xmm7, %xmm4
  10084. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  10085. vaesenc 48(%rdi), %xmm8, %xmm8
  10086. vpxor %xmm7, %xmm4, %xmm4
  10087. vpshufd $0x4e, %xmm0, %xmm5
  10088. vpxor %xmm0, %xmm5, %xmm5
  10089. vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
  10090. vaesenc 48(%rdi), %xmm9, %xmm9
  10091. vaesenc 48(%rdi), %xmm10, %xmm10
  10092. vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
  10093. vaesenc 48(%rdi), %xmm11, %xmm11
  10094. vaesenc 48(%rdi), %xmm12, %xmm12
  10095. vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
  10096. vaesenc 48(%rdi), %xmm13, %xmm13
  10097. vaesenc 48(%rdi), %xmm14, %xmm14
  10098. vaesenc 48(%rdi), %xmm15, %xmm15
  10099. vpxor %xmm7, %xmm1, %xmm1
  10100. vpxor %xmm7, %xmm2, %xmm2
  10101. vpxor %xmm6, %xmm1, %xmm1
  10102. vpxor %xmm6, %xmm3, %xmm3
  10103. vpxor %xmm4, %xmm1, %xmm1
  10104. vmovdqa 64(%rsp), %xmm7
  10105. vmovdqu -80(%rdx), %xmm0
  10106. vpshufd $0x4e, %xmm7, %xmm4
  10107. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  10108. vaesenc 64(%rdi), %xmm8, %xmm8
  10109. vpxor %xmm7, %xmm4, %xmm4
  10110. vpshufd $0x4e, %xmm0, %xmm5
  10111. vpxor %xmm0, %xmm5, %xmm5
  10112. vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
  10113. vaesenc 64(%rdi), %xmm9, %xmm9
  10114. vaesenc 64(%rdi), %xmm10, %xmm10
  10115. vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
  10116. vaesenc 64(%rdi), %xmm11, %xmm11
  10117. vaesenc 64(%rdi), %xmm12, %xmm12
  10118. vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
  10119. vaesenc 64(%rdi), %xmm13, %xmm13
  10120. vaesenc 64(%rdi), %xmm14, %xmm14
  10121. vaesenc 64(%rdi), %xmm15, %xmm15
  10122. vpxor %xmm7, %xmm1, %xmm1
  10123. vpxor %xmm7, %xmm2, %xmm2
  10124. vpxor %xmm6, %xmm1, %xmm1
  10125. vpxor %xmm6, %xmm3, %xmm3
  10126. vpxor %xmm4, %xmm1, %xmm1
  10127. vmovdqa 48(%rsp), %xmm7
  10128. vmovdqu -64(%rdx), %xmm0
  10129. vpshufd $0x4e, %xmm7, %xmm4
  10130. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  10131. vaesenc 80(%rdi), %xmm8, %xmm8
  10132. vpxor %xmm7, %xmm4, %xmm4
  10133. vpshufd $0x4e, %xmm0, %xmm5
  10134. vpxor %xmm0, %xmm5, %xmm5
  10135. vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
  10136. vaesenc 80(%rdi), %xmm9, %xmm9
  10137. vaesenc 80(%rdi), %xmm10, %xmm10
  10138. vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
  10139. vaesenc 80(%rdi), %xmm11, %xmm11
  10140. vaesenc 80(%rdi), %xmm12, %xmm12
  10141. vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
  10142. vaesenc 80(%rdi), %xmm13, %xmm13
  10143. vaesenc 80(%rdi), %xmm14, %xmm14
  10144. vaesenc 80(%rdi), %xmm15, %xmm15
  10145. vpxor %xmm7, %xmm1, %xmm1
  10146. vpxor %xmm7, %xmm2, %xmm2
  10147. vpxor %xmm6, %xmm1, %xmm1
  10148. vpxor %xmm6, %xmm3, %xmm3
  10149. vpxor %xmm4, %xmm1, %xmm1
  10150. vmovdqa 32(%rsp), %xmm7
  10151. vmovdqu -48(%rdx), %xmm0
  10152. vpshufd $0x4e, %xmm7, %xmm4
  10153. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  10154. vaesenc 96(%rdi), %xmm8, %xmm8
  10155. vpxor %xmm7, %xmm4, %xmm4
  10156. vpshufd $0x4e, %xmm0, %xmm5
  10157. vpxor %xmm0, %xmm5, %xmm5
  10158. vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
  10159. vaesenc 96(%rdi), %xmm9, %xmm9
  10160. vaesenc 96(%rdi), %xmm10, %xmm10
  10161. vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
  10162. vaesenc 96(%rdi), %xmm11, %xmm11
  10163. vaesenc 96(%rdi), %xmm12, %xmm12
  10164. vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
  10165. vaesenc 96(%rdi), %xmm13, %xmm13
  10166. vaesenc 96(%rdi), %xmm14, %xmm14
  10167. vaesenc 96(%rdi), %xmm15, %xmm15
  10168. vpxor %xmm7, %xmm1, %xmm1
  10169. vpxor %xmm7, %xmm2, %xmm2
  10170. vpxor %xmm6, %xmm1, %xmm1
  10171. vpxor %xmm6, %xmm3, %xmm3
  10172. vpxor %xmm4, %xmm1, %xmm1
  10173. vmovdqa 16(%rsp), %xmm7
  10174. vmovdqu -32(%rdx), %xmm0
  10175. vpshufd $0x4e, %xmm7, %xmm4
  10176. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  10177. vaesenc 112(%rdi), %xmm8, %xmm8
  10178. vpxor %xmm7, %xmm4, %xmm4
  10179. vpshufd $0x4e, %xmm0, %xmm5
  10180. vpxor %xmm0, %xmm5, %xmm5
  10181. vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
  10182. vaesenc 112(%rdi), %xmm9, %xmm9
  10183. vaesenc 112(%rdi), %xmm10, %xmm10
  10184. vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
  10185. vaesenc 112(%rdi), %xmm11, %xmm11
  10186. vaesenc 112(%rdi), %xmm12, %xmm12
  10187. vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
  10188. vaesenc 112(%rdi), %xmm13, %xmm13
  10189. vaesenc 112(%rdi), %xmm14, %xmm14
  10190. vaesenc 112(%rdi), %xmm15, %xmm15
  10191. vpxor %xmm7, %xmm1, %xmm1
  10192. vpxor %xmm7, %xmm2, %xmm2
  10193. vpxor %xmm6, %xmm1, %xmm1
  10194. vpxor %xmm6, %xmm3, %xmm3
  10195. vpxor %xmm4, %xmm1, %xmm1
  10196. vmovdqa (%rsp), %xmm7
  10197. vmovdqu -16(%rdx), %xmm0
  10198. vpshufd $0x4e, %xmm7, %xmm4
  10199. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  10200. vaesenc 128(%rdi), %xmm8, %xmm8
  10201. vpxor %xmm7, %xmm4, %xmm4
  10202. vpshufd $0x4e, %xmm0, %xmm5
  10203. vpxor %xmm0, %xmm5, %xmm5
  10204. vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
  10205. vaesenc 128(%rdi), %xmm9, %xmm9
  10206. vaesenc 128(%rdi), %xmm10, %xmm10
  10207. vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
  10208. vaesenc 128(%rdi), %xmm11, %xmm11
  10209. vaesenc 128(%rdi), %xmm12, %xmm12
  10210. vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
  10211. vaesenc 128(%rdi), %xmm13, %xmm13
  10212. vaesenc 128(%rdi), %xmm14, %xmm14
  10213. vaesenc 128(%rdi), %xmm15, %xmm15
  10214. vpxor %xmm7, %xmm1, %xmm1
  10215. vpxor %xmm7, %xmm2, %xmm2
  10216. vpxor %xmm6, %xmm1, %xmm1
  10217. vpxor %xmm6, %xmm3, %xmm3
  10218. vpxor %xmm4, %xmm1, %xmm1
  10219. vpslldq $8, %xmm1, %xmm5
  10220. vpsrldq $8, %xmm1, %xmm1
  10221. vaesenc 144(%rdi), %xmm8, %xmm8
  10222. vpxor %xmm5, %xmm2, %xmm2
  10223. vpxor %xmm1, %xmm3, %xmm3
  10224. vaesenc 144(%rdi), %xmm9, %xmm9
  10225. vpslld $31, %xmm2, %xmm7
  10226. vpslld $30, %xmm2, %xmm4
  10227. vpslld $25, %xmm2, %xmm5
  10228. vaesenc 144(%rdi), %xmm10, %xmm10
  10229. vpxor %xmm4, %xmm7, %xmm7
  10230. vpxor %xmm5, %xmm7, %xmm7
  10231. vaesenc 144(%rdi), %xmm11, %xmm11
  10232. vpsrldq $4, %xmm7, %xmm4
  10233. vpslldq $12, %xmm7, %xmm7
  10234. vaesenc 144(%rdi), %xmm12, %xmm12
  10235. vpxor %xmm7, %xmm2, %xmm2
  10236. vpsrld $0x01, %xmm2, %xmm5
  10237. vaesenc 144(%rdi), %xmm13, %xmm13
  10238. vpsrld $2, %xmm2, %xmm1
  10239. vpsrld $7, %xmm2, %xmm0
  10240. vaesenc 144(%rdi), %xmm14, %xmm14
  10241. vpxor %xmm1, %xmm5, %xmm5
  10242. vpxor %xmm0, %xmm5, %xmm5
  10243. vaesenc 144(%rdi), %xmm15, %xmm15
  10244. vpxor %xmm4, %xmm5, %xmm5
  10245. vpxor %xmm5, %xmm2, %xmm2
  10246. vpxor %xmm3, %xmm2, %xmm2
  10247. cmpl $11, %esi
  10248. vmovdqa 160(%rdi), %xmm7
  10249. jl L_AES_GCM_encrypt_update_avx1_aesenc_128_ghash_avx_done
  10250. vaesenc %xmm7, %xmm8, %xmm8
  10251. vaesenc %xmm7, %xmm9, %xmm9
  10252. vaesenc %xmm7, %xmm10, %xmm10
  10253. vaesenc %xmm7, %xmm11, %xmm11
  10254. vaesenc %xmm7, %xmm12, %xmm12
  10255. vaesenc %xmm7, %xmm13, %xmm13
  10256. vaesenc %xmm7, %xmm14, %xmm14
  10257. vaesenc %xmm7, %xmm15, %xmm15
  10258. vmovdqa 176(%rdi), %xmm7
  10259. vaesenc %xmm7, %xmm8, %xmm8
  10260. vaesenc %xmm7, %xmm9, %xmm9
  10261. vaesenc %xmm7, %xmm10, %xmm10
  10262. vaesenc %xmm7, %xmm11, %xmm11
  10263. vaesenc %xmm7, %xmm12, %xmm12
  10264. vaesenc %xmm7, %xmm13, %xmm13
  10265. vaesenc %xmm7, %xmm14, %xmm14
  10266. vaesenc %xmm7, %xmm15, %xmm15
  10267. cmpl $13, %esi
  10268. vmovdqa 192(%rdi), %xmm7
  10269. jl L_AES_GCM_encrypt_update_avx1_aesenc_128_ghash_avx_done
  10270. vaesenc %xmm7, %xmm8, %xmm8
  10271. vaesenc %xmm7, %xmm9, %xmm9
  10272. vaesenc %xmm7, %xmm10, %xmm10
  10273. vaesenc %xmm7, %xmm11, %xmm11
  10274. vaesenc %xmm7, %xmm12, %xmm12
  10275. vaesenc %xmm7, %xmm13, %xmm13
  10276. vaesenc %xmm7, %xmm14, %xmm14
  10277. vaesenc %xmm7, %xmm15, %xmm15
  10278. vmovdqa 208(%rdi), %xmm7
  10279. vaesenc %xmm7, %xmm8, %xmm8
  10280. vaesenc %xmm7, %xmm9, %xmm9
  10281. vaesenc %xmm7, %xmm10, %xmm10
  10282. vaesenc %xmm7, %xmm11, %xmm11
  10283. vaesenc %xmm7, %xmm12, %xmm12
  10284. vaesenc %xmm7, %xmm13, %xmm13
  10285. vaesenc %xmm7, %xmm14, %xmm14
  10286. vaesenc %xmm7, %xmm15, %xmm15
  10287. vmovdqa 224(%rdi), %xmm7
  10288. L_AES_GCM_encrypt_update_avx1_aesenc_128_ghash_avx_done:
  10289. vaesenclast %xmm7, %xmm8, %xmm8
  10290. vaesenclast %xmm7, %xmm9, %xmm9
  10291. vmovdqu (%rcx), %xmm0
  10292. vmovdqu 16(%rcx), %xmm1
  10293. vpxor %xmm0, %xmm8, %xmm8
  10294. vpxor %xmm1, %xmm9, %xmm9
  10295. vmovdqu %xmm8, (%rdx)
  10296. vmovdqu %xmm9, 16(%rdx)
  10297. vaesenclast %xmm7, %xmm10, %xmm10
  10298. vaesenclast %xmm7, %xmm11, %xmm11
  10299. vmovdqu 32(%rcx), %xmm0
  10300. vmovdqu 48(%rcx), %xmm1
  10301. vpxor %xmm0, %xmm10, %xmm10
  10302. vpxor %xmm1, %xmm11, %xmm11
  10303. vmovdqu %xmm10, 32(%rdx)
  10304. vmovdqu %xmm11, 48(%rdx)
  10305. vaesenclast %xmm7, %xmm12, %xmm12
  10306. vaesenclast %xmm7, %xmm13, %xmm13
  10307. vmovdqu 64(%rcx), %xmm0
  10308. vmovdqu 80(%rcx), %xmm1
  10309. vpxor %xmm0, %xmm12, %xmm12
  10310. vpxor %xmm1, %xmm13, %xmm13
  10311. vmovdqu %xmm12, 64(%rdx)
  10312. vmovdqu %xmm13, 80(%rdx)
  10313. vaesenclast %xmm7, %xmm14, %xmm14
  10314. vaesenclast %xmm7, %xmm15, %xmm15
  10315. vmovdqu 96(%rcx), %xmm0
  10316. vmovdqu 112(%rcx), %xmm1
  10317. vpxor %xmm0, %xmm14, %xmm14
  10318. vpxor %xmm1, %xmm15, %xmm15
  10319. vmovdqu %xmm14, 96(%rdx)
  10320. vmovdqu %xmm15, 112(%rdx)
  10321. addl $0x80, %r14d
  10322. cmpl %r13d, %r14d
  10323. jl L_AES_GCM_encrypt_update_avx1_ghash_128
  10324. L_AES_GCM_encrypt_update_avx1_end_128:
  10325. vmovdqa L_avx1_aes_gcm_bswap_mask(%rip), %xmm4
  10326. vpshufb %xmm4, %xmm8, %xmm8
  10327. vpshufb %xmm4, %xmm9, %xmm9
  10328. vpshufb %xmm4, %xmm10, %xmm10
  10329. vpshufb %xmm4, %xmm11, %xmm11
  10330. vpxor %xmm2, %xmm8, %xmm8
  10331. vpshufb %xmm4, %xmm12, %xmm12
  10332. vpshufb %xmm4, %xmm13, %xmm13
  10333. vpshufb %xmm4, %xmm14, %xmm14
  10334. vpshufb %xmm4, %xmm15, %xmm15
  10335. vmovdqa (%rsp), %xmm7
  10336. vmovdqa 16(%rsp), %xmm5
  10337. # ghash_gfmul_avx
  10338. vpshufd $0x4e, %xmm15, %xmm1
  10339. vpshufd $0x4e, %xmm7, %xmm2
  10340. vpclmulqdq $0x11, %xmm15, %xmm7, %xmm3
  10341. vpclmulqdq $0x00, %xmm15, %xmm7, %xmm0
  10342. vpxor %xmm15, %xmm1, %xmm1
  10343. vpxor %xmm7, %xmm2, %xmm2
  10344. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
  10345. vpxor %xmm0, %xmm1, %xmm1
  10346. vpxor %xmm3, %xmm1, %xmm1
  10347. vmovdqa %xmm0, %xmm4
  10348. vmovdqa %xmm3, %xmm6
  10349. vpslldq $8, %xmm1, %xmm2
  10350. vpsrldq $8, %xmm1, %xmm1
  10351. vpxor %xmm2, %xmm4, %xmm4
  10352. vpxor %xmm1, %xmm6, %xmm6
  10353. # ghash_gfmul_xor_avx
  10354. vpshufd $0x4e, %xmm14, %xmm1
  10355. vpshufd $0x4e, %xmm5, %xmm2
  10356. vpclmulqdq $0x11, %xmm14, %xmm5, %xmm3
  10357. vpclmulqdq $0x00, %xmm14, %xmm5, %xmm0
  10358. vpxor %xmm14, %xmm1, %xmm1
  10359. vpxor %xmm5, %xmm2, %xmm2
  10360. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
  10361. vpxor %xmm0, %xmm1, %xmm1
  10362. vpxor %xmm3, %xmm1, %xmm1
  10363. vpxor %xmm0, %xmm4, %xmm4
  10364. vpxor %xmm3, %xmm6, %xmm6
  10365. vpslldq $8, %xmm1, %xmm2
  10366. vpsrldq $8, %xmm1, %xmm1
  10367. vpxor %xmm2, %xmm4, %xmm4
  10368. vpxor %xmm1, %xmm6, %xmm6
  10369. vmovdqa 32(%rsp), %xmm7
  10370. vmovdqa 48(%rsp), %xmm5
  10371. # ghash_gfmul_xor_avx
  10372. vpshufd $0x4e, %xmm13, %xmm1
  10373. vpshufd $0x4e, %xmm7, %xmm2
  10374. vpclmulqdq $0x11, %xmm13, %xmm7, %xmm3
  10375. vpclmulqdq $0x00, %xmm13, %xmm7, %xmm0
  10376. vpxor %xmm13, %xmm1, %xmm1
  10377. vpxor %xmm7, %xmm2, %xmm2
  10378. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
  10379. vpxor %xmm0, %xmm1, %xmm1
  10380. vpxor %xmm3, %xmm1, %xmm1
  10381. vpxor %xmm0, %xmm4, %xmm4
  10382. vpxor %xmm3, %xmm6, %xmm6
  10383. vpslldq $8, %xmm1, %xmm2
  10384. vpsrldq $8, %xmm1, %xmm1
  10385. vpxor %xmm2, %xmm4, %xmm4
  10386. vpxor %xmm1, %xmm6, %xmm6
  10387. # ghash_gfmul_xor_avx
  10388. vpshufd $0x4e, %xmm12, %xmm1
  10389. vpshufd $0x4e, %xmm5, %xmm2
  10390. vpclmulqdq $0x11, %xmm12, %xmm5, %xmm3
  10391. vpclmulqdq $0x00, %xmm12, %xmm5, %xmm0
  10392. vpxor %xmm12, %xmm1, %xmm1
  10393. vpxor %xmm5, %xmm2, %xmm2
  10394. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
  10395. vpxor %xmm0, %xmm1, %xmm1
  10396. vpxor %xmm3, %xmm1, %xmm1
  10397. vpxor %xmm0, %xmm4, %xmm4
  10398. vpxor %xmm3, %xmm6, %xmm6
  10399. vpslldq $8, %xmm1, %xmm2
  10400. vpsrldq $8, %xmm1, %xmm1
  10401. vpxor %xmm2, %xmm4, %xmm4
  10402. vpxor %xmm1, %xmm6, %xmm6
  10403. vmovdqa 64(%rsp), %xmm7
  10404. vmovdqa 80(%rsp), %xmm5
  10405. # ghash_gfmul_xor_avx
  10406. vpshufd $0x4e, %xmm11, %xmm1
  10407. vpshufd $0x4e, %xmm7, %xmm2
  10408. vpclmulqdq $0x11, %xmm11, %xmm7, %xmm3
  10409. vpclmulqdq $0x00, %xmm11, %xmm7, %xmm0
  10410. vpxor %xmm11, %xmm1, %xmm1
  10411. vpxor %xmm7, %xmm2, %xmm2
  10412. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
  10413. vpxor %xmm0, %xmm1, %xmm1
  10414. vpxor %xmm3, %xmm1, %xmm1
  10415. vpxor %xmm0, %xmm4, %xmm4
  10416. vpxor %xmm3, %xmm6, %xmm6
  10417. vpslldq $8, %xmm1, %xmm2
  10418. vpsrldq $8, %xmm1, %xmm1
  10419. vpxor %xmm2, %xmm4, %xmm4
  10420. vpxor %xmm1, %xmm6, %xmm6
  10421. # ghash_gfmul_xor_avx
  10422. vpshufd $0x4e, %xmm10, %xmm1
  10423. vpshufd $0x4e, %xmm5, %xmm2
  10424. vpclmulqdq $0x11, %xmm10, %xmm5, %xmm3
  10425. vpclmulqdq $0x00, %xmm10, %xmm5, %xmm0
  10426. vpxor %xmm10, %xmm1, %xmm1
  10427. vpxor %xmm5, %xmm2, %xmm2
  10428. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
  10429. vpxor %xmm0, %xmm1, %xmm1
  10430. vpxor %xmm3, %xmm1, %xmm1
  10431. vpxor %xmm0, %xmm4, %xmm4
  10432. vpxor %xmm3, %xmm6, %xmm6
  10433. vpslldq $8, %xmm1, %xmm2
  10434. vpsrldq $8, %xmm1, %xmm1
  10435. vpxor %xmm2, %xmm4, %xmm4
  10436. vpxor %xmm1, %xmm6, %xmm6
  10437. vmovdqa 96(%rsp), %xmm7
  10438. vmovdqa 112(%rsp), %xmm5
  10439. # ghash_gfmul_xor_avx
  10440. vpshufd $0x4e, %xmm9, %xmm1
  10441. vpshufd $0x4e, %xmm7, %xmm2
  10442. vpclmulqdq $0x11, %xmm9, %xmm7, %xmm3
  10443. vpclmulqdq $0x00, %xmm9, %xmm7, %xmm0
  10444. vpxor %xmm9, %xmm1, %xmm1
  10445. vpxor %xmm7, %xmm2, %xmm2
  10446. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
  10447. vpxor %xmm0, %xmm1, %xmm1
  10448. vpxor %xmm3, %xmm1, %xmm1
  10449. vpxor %xmm0, %xmm4, %xmm4
  10450. vpxor %xmm3, %xmm6, %xmm6
  10451. vpslldq $8, %xmm1, %xmm2
  10452. vpsrldq $8, %xmm1, %xmm1
  10453. vpxor %xmm2, %xmm4, %xmm4
  10454. vpxor %xmm1, %xmm6, %xmm6
  10455. # ghash_gfmul_xor_avx
  10456. vpshufd $0x4e, %xmm8, %xmm1
  10457. vpshufd $0x4e, %xmm5, %xmm2
  10458. vpclmulqdq $0x11, %xmm8, %xmm5, %xmm3
  10459. vpclmulqdq $0x00, %xmm8, %xmm5, %xmm0
  10460. vpxor %xmm8, %xmm1, %xmm1
  10461. vpxor %xmm5, %xmm2, %xmm2
  10462. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm1
  10463. vpxor %xmm0, %xmm1, %xmm1
  10464. vpxor %xmm3, %xmm1, %xmm1
  10465. vpxor %xmm0, %xmm4, %xmm4
  10466. vpxor %xmm3, %xmm6, %xmm6
  10467. vpslldq $8, %xmm1, %xmm2
  10468. vpsrldq $8, %xmm1, %xmm1
  10469. vpxor %xmm2, %xmm4, %xmm4
  10470. vpxor %xmm1, %xmm6, %xmm6
  10471. vpslld $31, %xmm4, %xmm0
  10472. vpslld $30, %xmm4, %xmm1
  10473. vpslld $25, %xmm4, %xmm2
  10474. vpxor %xmm1, %xmm0, %xmm0
  10475. vpxor %xmm2, %xmm0, %xmm0
  10476. vmovdqa %xmm0, %xmm1
  10477. vpsrldq $4, %xmm1, %xmm1
  10478. vpslldq $12, %xmm0, %xmm0
  10479. vpxor %xmm0, %xmm4, %xmm4
  10480. vpsrld $0x01, %xmm4, %xmm2
  10481. vpsrld $2, %xmm4, %xmm3
  10482. vpsrld $7, %xmm4, %xmm0
  10483. vpxor %xmm3, %xmm2, %xmm2
  10484. vpxor %xmm0, %xmm2, %xmm2
  10485. vpxor %xmm1, %xmm2, %xmm2
  10486. vpxor %xmm4, %xmm2, %xmm2
  10487. vpxor %xmm2, %xmm6, %xmm6
  10488. vmovdqa (%rsp), %xmm5
  10489. L_AES_GCM_encrypt_update_avx1_done_128:
  10490. movl %r8d, %edx
  10491. cmpl %edx, %r14d
  10492. jge L_AES_GCM_encrypt_update_avx1_done_enc
  10493. movl %r8d, %r13d
  10494. andl $0xfffffff0, %r13d
  10495. cmpl %r13d, %r14d
  10496. jge L_AES_GCM_encrypt_update_avx1_last_block_done
  10497. vmovdqa (%r12), %xmm9
  10498. vpshufb L_avx1_aes_gcm_bswap_epi64(%rip), %xmm9, %xmm8
  10499. vpaddd L_avx1_aes_gcm_one(%rip), %xmm9, %xmm9
  10500. vmovdqa %xmm9, (%r12)
  10501. vpxor (%rdi), %xmm8, %xmm8
  10502. vaesenc 16(%rdi), %xmm8, %xmm8
  10503. vaesenc 32(%rdi), %xmm8, %xmm8
  10504. vaesenc 48(%rdi), %xmm8, %xmm8
  10505. vaesenc 64(%rdi), %xmm8, %xmm8
  10506. vaesenc 80(%rdi), %xmm8, %xmm8
  10507. vaesenc 96(%rdi), %xmm8, %xmm8
  10508. vaesenc 112(%rdi), %xmm8, %xmm8
  10509. vaesenc 128(%rdi), %xmm8, %xmm8
  10510. vaesenc 144(%rdi), %xmm8, %xmm8
  10511. cmpl $11, %esi
  10512. vmovdqa 160(%rdi), %xmm9
  10513. jl L_AES_GCM_encrypt_update_avx1_aesenc_block_last
  10514. vaesenc %xmm9, %xmm8, %xmm8
  10515. vaesenc 176(%rdi), %xmm8, %xmm8
  10516. cmpl $13, %esi
  10517. vmovdqa 192(%rdi), %xmm9
  10518. jl L_AES_GCM_encrypt_update_avx1_aesenc_block_last
  10519. vaesenc %xmm9, %xmm8, %xmm8
  10520. vaesenc 208(%rdi), %xmm8, %xmm8
  10521. vmovdqa 224(%rdi), %xmm9
  10522. L_AES_GCM_encrypt_update_avx1_aesenc_block_last:
  10523. vaesenclast %xmm9, %xmm8, %xmm8
  10524. vmovdqu (%r11,%r14,1), %xmm9
  10525. vpxor %xmm9, %xmm8, %xmm8
  10526. vmovdqu %xmm8, (%r10,%r14,1)
  10527. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm8, %xmm8
  10528. vpxor %xmm8, %xmm6, %xmm6
  10529. addl $16, %r14d
  10530. cmpl %r13d, %r14d
  10531. jge L_AES_GCM_encrypt_update_avx1_last_block_ghash
  10532. L_AES_GCM_encrypt_update_avx1_last_block_start:
  10533. vmovdqu (%r11,%r14,1), %xmm13
  10534. vmovdqa (%r12), %xmm9
  10535. vpshufb L_avx1_aes_gcm_bswap_epi64(%rip), %xmm9, %xmm8
  10536. vpaddd L_avx1_aes_gcm_one(%rip), %xmm9, %xmm9
  10537. vmovdqa %xmm9, (%r12)
  10538. vpxor (%rdi), %xmm8, %xmm8
  10539. vpclmulqdq $16, %xmm5, %xmm6, %xmm10
  10540. vaesenc 16(%rdi), %xmm8, %xmm8
  10541. vaesenc 32(%rdi), %xmm8, %xmm8
  10542. vpclmulqdq $0x01, %xmm5, %xmm6, %xmm11
  10543. vaesenc 48(%rdi), %xmm8, %xmm8
  10544. vaesenc 64(%rdi), %xmm8, %xmm8
  10545. vpclmulqdq $0x00, %xmm5, %xmm6, %xmm12
  10546. vaesenc 80(%rdi), %xmm8, %xmm8
  10547. vpclmulqdq $0x11, %xmm5, %xmm6, %xmm1
  10548. vaesenc 96(%rdi), %xmm8, %xmm8
  10549. vpxor %xmm11, %xmm10, %xmm10
  10550. vpslldq $8, %xmm10, %xmm2
  10551. vpsrldq $8, %xmm10, %xmm10
  10552. vaesenc 112(%rdi), %xmm8, %xmm8
  10553. vpxor %xmm12, %xmm2, %xmm2
  10554. vpxor %xmm10, %xmm1, %xmm3
  10555. vmovdqa L_avx1_aes_gcm_mod2_128(%rip), %xmm0
  10556. vpclmulqdq $16, %xmm0, %xmm2, %xmm11
  10557. vaesenc 128(%rdi), %xmm8, %xmm8
  10558. vpshufd $0x4e, %xmm2, %xmm10
  10559. vpxor %xmm11, %xmm10, %xmm10
  10560. vpclmulqdq $16, %xmm0, %xmm10, %xmm11
  10561. vaesenc 144(%rdi), %xmm8, %xmm8
  10562. vpshufd $0x4e, %xmm10, %xmm10
  10563. vpxor %xmm11, %xmm10, %xmm10
  10564. vpxor %xmm3, %xmm10, %xmm6
  10565. cmpl $11, %esi
  10566. vmovdqa 160(%rdi), %xmm9
  10567. jl L_AES_GCM_encrypt_update_avx1_aesenc_gfmul_last
  10568. vaesenc %xmm9, %xmm8, %xmm8
  10569. vaesenc 176(%rdi), %xmm8, %xmm8
  10570. cmpl $13, %esi
  10571. vmovdqa 192(%rdi), %xmm9
  10572. jl L_AES_GCM_encrypt_update_avx1_aesenc_gfmul_last
  10573. vaesenc %xmm9, %xmm8, %xmm8
  10574. vaesenc 208(%rdi), %xmm8, %xmm8
  10575. vmovdqa 224(%rdi), %xmm9
  10576. L_AES_GCM_encrypt_update_avx1_aesenc_gfmul_last:
  10577. vaesenclast %xmm9, %xmm8, %xmm8
  10578. vmovdqa %xmm13, %xmm0
  10579. vpxor %xmm0, %xmm8, %xmm8
  10580. vmovdqu %xmm8, (%r10,%r14,1)
  10581. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm8, %xmm8
  10582. addl $16, %r14d
  10583. vpxor %xmm8, %xmm6, %xmm6
  10584. cmpl %r13d, %r14d
  10585. jl L_AES_GCM_encrypt_update_avx1_last_block_start
  10586. L_AES_GCM_encrypt_update_avx1_last_block_ghash:
  10587. # ghash_gfmul_red_avx
  10588. vpshufd $0x4e, %xmm5, %xmm9
  10589. vpshufd $0x4e, %xmm6, %xmm10
  10590. vpclmulqdq $0x11, %xmm5, %xmm6, %xmm11
  10591. vpclmulqdq $0x00, %xmm5, %xmm6, %xmm8
  10592. vpxor %xmm5, %xmm9, %xmm9
  10593. vpxor %xmm6, %xmm10, %xmm10
  10594. vpclmulqdq $0x00, %xmm10, %xmm9, %xmm9
  10595. vpxor %xmm8, %xmm9, %xmm9
  10596. vpxor %xmm11, %xmm9, %xmm9
  10597. vpslldq $8, %xmm9, %xmm10
  10598. vpsrldq $8, %xmm9, %xmm9
  10599. vpxor %xmm10, %xmm8, %xmm8
  10600. vpxor %xmm9, %xmm11, %xmm6
  10601. vpslld $31, %xmm8, %xmm12
  10602. vpslld $30, %xmm8, %xmm13
  10603. vpslld $25, %xmm8, %xmm14
  10604. vpxor %xmm13, %xmm12, %xmm12
  10605. vpxor %xmm14, %xmm12, %xmm12
  10606. vpsrldq $4, %xmm12, %xmm13
  10607. vpslldq $12, %xmm12, %xmm12
  10608. vpxor %xmm12, %xmm8, %xmm8
  10609. vpsrld $0x01, %xmm8, %xmm14
  10610. vpsrld $2, %xmm8, %xmm10
  10611. vpsrld $7, %xmm8, %xmm9
  10612. vpxor %xmm10, %xmm14, %xmm14
  10613. vpxor %xmm9, %xmm14, %xmm14
  10614. vpxor %xmm13, %xmm14, %xmm14
  10615. vpxor %xmm8, %xmm14, %xmm14
  10616. vpxor %xmm14, %xmm6, %xmm6
  10617. L_AES_GCM_encrypt_update_avx1_last_block_done:
  10618. L_AES_GCM_encrypt_update_avx1_done_enc:
  10619. vmovdqa %xmm6, (%r9)
  10620. vzeroupper
  10621. addq $0xa0, %rsp
  10622. popq %r14
  10623. popq %r12
  10624. popq %r13
  10625. repz retq
  10626. #ifndef __APPLE__
  10627. .size AES_GCM_encrypt_update_avx1,.-AES_GCM_encrypt_update_avx1
  10628. #endif /* __APPLE__ */
  10629. #ifndef __APPLE__
  10630. .text
  10631. .globl AES_GCM_encrypt_final_avx1
  10632. .type AES_GCM_encrypt_final_avx1,@function
  10633. .align 16
  10634. AES_GCM_encrypt_final_avx1:
  10635. #else
  10636. .section __TEXT,__text
  10637. .globl _AES_GCM_encrypt_final_avx1
  10638. .p2align 4
  10639. _AES_GCM_encrypt_final_avx1:
  10640. #endif /* __APPLE__ */
  10641. pushq %r13
  10642. movq %rdx, %rax
  10643. movl %ecx, %r10d
  10644. movl %r8d, %r11d
  10645. movq 16(%rsp), %r8
  10646. subq $16, %rsp
  10647. vmovdqa (%rdi), %xmm4
  10648. vmovdqa (%r9), %xmm5
  10649. vmovdqa (%r8), %xmm6
  10650. vpsrlq $63, %xmm5, %xmm9
  10651. vpsllq $0x01, %xmm5, %xmm8
  10652. vpslldq $8, %xmm9, %xmm9
  10653. vpor %xmm9, %xmm8, %xmm8
  10654. vpshufd $0xff, %xmm5, %xmm5
  10655. vpsrad $31, %xmm5, %xmm5
  10656. vpand L_avx1_aes_gcm_mod2_128(%rip), %xmm5, %xmm5
  10657. vpxor %xmm8, %xmm5, %xmm5
  10658. movl %r10d, %edx
  10659. movl %r11d, %ecx
  10660. shlq $3, %rdx
  10661. shlq $3, %rcx
  10662. vpinsrq $0x00, %rdx, %xmm0, %xmm0
  10663. vpinsrq $0x01, %rcx, %xmm0, %xmm0
  10664. vpxor %xmm0, %xmm4, %xmm4
  10665. # ghash_gfmul_red_avx
  10666. vpshufd $0x4e, %xmm5, %xmm9
  10667. vpshufd $0x4e, %xmm4, %xmm10
  10668. vpclmulqdq $0x11, %xmm5, %xmm4, %xmm11
  10669. vpclmulqdq $0x00, %xmm5, %xmm4, %xmm8
  10670. vpxor %xmm5, %xmm9, %xmm9
  10671. vpxor %xmm4, %xmm10, %xmm10
  10672. vpclmulqdq $0x00, %xmm10, %xmm9, %xmm9
  10673. vpxor %xmm8, %xmm9, %xmm9
  10674. vpxor %xmm11, %xmm9, %xmm9
  10675. vpslldq $8, %xmm9, %xmm10
  10676. vpsrldq $8, %xmm9, %xmm9
  10677. vpxor %xmm10, %xmm8, %xmm8
  10678. vpxor %xmm9, %xmm11, %xmm4
  10679. vpslld $31, %xmm8, %xmm12
  10680. vpslld $30, %xmm8, %xmm13
  10681. vpslld $25, %xmm8, %xmm14
  10682. vpxor %xmm13, %xmm12, %xmm12
  10683. vpxor %xmm14, %xmm12, %xmm12
  10684. vpsrldq $4, %xmm12, %xmm13
  10685. vpslldq $12, %xmm12, %xmm12
  10686. vpxor %xmm12, %xmm8, %xmm8
  10687. vpsrld $0x01, %xmm8, %xmm14
  10688. vpsrld $2, %xmm8, %xmm10
  10689. vpsrld $7, %xmm8, %xmm9
  10690. vpxor %xmm10, %xmm14, %xmm14
  10691. vpxor %xmm9, %xmm14, %xmm14
  10692. vpxor %xmm13, %xmm14, %xmm14
  10693. vpxor %xmm8, %xmm14, %xmm14
  10694. vpxor %xmm14, %xmm4, %xmm4
  10695. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm4, %xmm4
  10696. vpxor %xmm6, %xmm4, %xmm0
  10697. cmpl $16, %eax
  10698. je L_AES_GCM_encrypt_final_avx1_store_tag_16
  10699. xorq %rcx, %rcx
  10700. vmovdqu %xmm0, (%rsp)
  10701. L_AES_GCM_encrypt_final_avx1_store_tag_loop:
  10702. movzbl (%rsp,%rcx,1), %r13d
  10703. movb %r13b, (%rsi,%rcx,1)
  10704. incl %ecx
  10705. cmpl %eax, %ecx
  10706. jne L_AES_GCM_encrypt_final_avx1_store_tag_loop
  10707. jmp L_AES_GCM_encrypt_final_avx1_store_tag_done
  10708. L_AES_GCM_encrypt_final_avx1_store_tag_16:
  10709. vmovdqu %xmm0, (%rsi)
  10710. L_AES_GCM_encrypt_final_avx1_store_tag_done:
  10711. vzeroupper
  10712. addq $16, %rsp
  10713. popq %r13
  10714. repz retq
  10715. #ifndef __APPLE__
  10716. .size AES_GCM_encrypt_final_avx1,.-AES_GCM_encrypt_final_avx1
  10717. #endif /* __APPLE__ */
  10718. #ifndef __APPLE__
  10719. .text
  10720. .globl AES_GCM_decrypt_update_avx1
  10721. .type AES_GCM_decrypt_update_avx1,@function
  10722. .align 16
  10723. AES_GCM_decrypt_update_avx1:
  10724. #else
  10725. .section __TEXT,__text
  10726. .globl _AES_GCM_decrypt_update_avx1
  10727. .p2align 4
  10728. _AES_GCM_decrypt_update_avx1:
  10729. #endif /* __APPLE__ */
  10730. pushq %r13
  10731. pushq %r12
  10732. pushq %r14
  10733. movq %rdx, %r10
  10734. movq %rcx, %r11
  10735. movq 32(%rsp), %rax
  10736. movq 40(%rsp), %r12
  10737. subq $0xa8, %rsp
  10738. vmovdqa (%r9), %xmm6
  10739. vmovdqa (%rax), %xmm5
  10740. vpsrlq $63, %xmm5, %xmm9
  10741. vpsllq $0x01, %xmm5, %xmm8
  10742. vpslldq $8, %xmm9, %xmm9
  10743. vpor %xmm9, %xmm8, %xmm8
  10744. vpshufd $0xff, %xmm5, %xmm5
  10745. vpsrad $31, %xmm5, %xmm5
  10746. vpand L_avx1_aes_gcm_mod2_128(%rip), %xmm5, %xmm5
  10747. vpxor %xmm8, %xmm5, %xmm5
  10748. xorl %r14d, %r14d
  10749. cmpl $0x80, %r8d
  10750. movl %r8d, %r13d
  10751. jl L_AES_GCM_decrypt_update_avx1_done_128
  10752. andl $0xffffff80, %r13d
  10753. vmovdqa %xmm6, %xmm2
  10754. # H ^ 1
  10755. vmovdqa %xmm5, (%rsp)
  10756. # H ^ 2
  10757. vpclmulqdq $0x00, %xmm5, %xmm5, %xmm8
  10758. vpclmulqdq $0x11, %xmm5, %xmm5, %xmm0
  10759. vpslld $31, %xmm8, %xmm12
  10760. vpslld $30, %xmm8, %xmm13
  10761. vpslld $25, %xmm8, %xmm14
  10762. vpxor %xmm13, %xmm12, %xmm12
  10763. vpxor %xmm14, %xmm12, %xmm12
  10764. vpsrldq $4, %xmm12, %xmm13
  10765. vpslldq $12, %xmm12, %xmm12
  10766. vpxor %xmm12, %xmm8, %xmm8
  10767. vpsrld $0x01, %xmm8, %xmm14
  10768. vpsrld $2, %xmm8, %xmm10
  10769. vpsrld $7, %xmm8, %xmm9
  10770. vpxor %xmm10, %xmm14, %xmm14
  10771. vpxor %xmm9, %xmm14, %xmm14
  10772. vpxor %xmm13, %xmm14, %xmm14
  10773. vpxor %xmm8, %xmm14, %xmm14
  10774. vpxor %xmm14, %xmm0, %xmm0
  10775. vmovdqa %xmm0, 16(%rsp)
  10776. # H ^ 3
  10777. # ghash_gfmul_red_avx
  10778. vpshufd $0x4e, %xmm5, %xmm9
  10779. vpshufd $0x4e, %xmm0, %xmm10
  10780. vpclmulqdq $0x11, %xmm5, %xmm0, %xmm11
  10781. vpclmulqdq $0x00, %xmm5, %xmm0, %xmm8
  10782. vpxor %xmm5, %xmm9, %xmm9
  10783. vpxor %xmm0, %xmm10, %xmm10
  10784. vpclmulqdq $0x00, %xmm10, %xmm9, %xmm9
  10785. vpxor %xmm8, %xmm9, %xmm9
  10786. vpxor %xmm11, %xmm9, %xmm9
  10787. vpslldq $8, %xmm9, %xmm10
  10788. vpsrldq $8, %xmm9, %xmm9
  10789. vpxor %xmm10, %xmm8, %xmm8
  10790. vpxor %xmm9, %xmm11, %xmm1
  10791. vpslld $31, %xmm8, %xmm12
  10792. vpslld $30, %xmm8, %xmm13
  10793. vpslld $25, %xmm8, %xmm14
  10794. vpxor %xmm13, %xmm12, %xmm12
  10795. vpxor %xmm14, %xmm12, %xmm12
  10796. vpsrldq $4, %xmm12, %xmm13
  10797. vpslldq $12, %xmm12, %xmm12
  10798. vpxor %xmm12, %xmm8, %xmm8
  10799. vpsrld $0x01, %xmm8, %xmm14
  10800. vpsrld $2, %xmm8, %xmm10
  10801. vpsrld $7, %xmm8, %xmm9
  10802. vpxor %xmm10, %xmm14, %xmm14
  10803. vpxor %xmm9, %xmm14, %xmm14
  10804. vpxor %xmm13, %xmm14, %xmm14
  10805. vpxor %xmm8, %xmm14, %xmm14
  10806. vpxor %xmm14, %xmm1, %xmm1
  10807. vmovdqa %xmm1, 32(%rsp)
  10808. # H ^ 4
  10809. vpclmulqdq $0x00, %xmm0, %xmm0, %xmm8
  10810. vpclmulqdq $0x11, %xmm0, %xmm0, %xmm3
  10811. vpslld $31, %xmm8, %xmm12
  10812. vpslld $30, %xmm8, %xmm13
  10813. vpslld $25, %xmm8, %xmm14
  10814. vpxor %xmm13, %xmm12, %xmm12
  10815. vpxor %xmm14, %xmm12, %xmm12
  10816. vpsrldq $4, %xmm12, %xmm13
  10817. vpslldq $12, %xmm12, %xmm12
  10818. vpxor %xmm12, %xmm8, %xmm8
  10819. vpsrld $0x01, %xmm8, %xmm14
  10820. vpsrld $2, %xmm8, %xmm10
  10821. vpsrld $7, %xmm8, %xmm9
  10822. vpxor %xmm10, %xmm14, %xmm14
  10823. vpxor %xmm9, %xmm14, %xmm14
  10824. vpxor %xmm13, %xmm14, %xmm14
  10825. vpxor %xmm8, %xmm14, %xmm14
  10826. vpxor %xmm14, %xmm3, %xmm3
  10827. vmovdqa %xmm3, 48(%rsp)
  10828. # H ^ 5
  10829. # ghash_gfmul_red_avx
  10830. vpshufd $0x4e, %xmm0, %xmm9
  10831. vpshufd $0x4e, %xmm1, %xmm10
  10832. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm11
  10833. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm8
  10834. vpxor %xmm0, %xmm9, %xmm9
  10835. vpxor %xmm1, %xmm10, %xmm10
  10836. vpclmulqdq $0x00, %xmm10, %xmm9, %xmm9
  10837. vpxor %xmm8, %xmm9, %xmm9
  10838. vpxor %xmm11, %xmm9, %xmm9
  10839. vpslldq $8, %xmm9, %xmm10
  10840. vpsrldq $8, %xmm9, %xmm9
  10841. vpxor %xmm10, %xmm8, %xmm8
  10842. vpxor %xmm9, %xmm11, %xmm7
  10843. vpslld $31, %xmm8, %xmm12
  10844. vpslld $30, %xmm8, %xmm13
  10845. vpslld $25, %xmm8, %xmm14
  10846. vpxor %xmm13, %xmm12, %xmm12
  10847. vpxor %xmm14, %xmm12, %xmm12
  10848. vpsrldq $4, %xmm12, %xmm13
  10849. vpslldq $12, %xmm12, %xmm12
  10850. vpxor %xmm12, %xmm8, %xmm8
  10851. vpsrld $0x01, %xmm8, %xmm14
  10852. vpsrld $2, %xmm8, %xmm10
  10853. vpsrld $7, %xmm8, %xmm9
  10854. vpxor %xmm10, %xmm14, %xmm14
  10855. vpxor %xmm9, %xmm14, %xmm14
  10856. vpxor %xmm13, %xmm14, %xmm14
  10857. vpxor %xmm8, %xmm14, %xmm14
  10858. vpxor %xmm14, %xmm7, %xmm7
  10859. vmovdqa %xmm7, 64(%rsp)
  10860. # H ^ 6
  10861. vpclmulqdq $0x00, %xmm1, %xmm1, %xmm8
  10862. vpclmulqdq $0x11, %xmm1, %xmm1, %xmm7
  10863. vpslld $31, %xmm8, %xmm12
  10864. vpslld $30, %xmm8, %xmm13
  10865. vpslld $25, %xmm8, %xmm14
  10866. vpxor %xmm13, %xmm12, %xmm12
  10867. vpxor %xmm14, %xmm12, %xmm12
  10868. vpsrldq $4, %xmm12, %xmm13
  10869. vpslldq $12, %xmm12, %xmm12
  10870. vpxor %xmm12, %xmm8, %xmm8
  10871. vpsrld $0x01, %xmm8, %xmm14
  10872. vpsrld $2, %xmm8, %xmm10
  10873. vpsrld $7, %xmm8, %xmm9
  10874. vpxor %xmm10, %xmm14, %xmm14
  10875. vpxor %xmm9, %xmm14, %xmm14
  10876. vpxor %xmm13, %xmm14, %xmm14
  10877. vpxor %xmm8, %xmm14, %xmm14
  10878. vpxor %xmm14, %xmm7, %xmm7
  10879. vmovdqa %xmm7, 80(%rsp)
  10880. # H ^ 7
  10881. # ghash_gfmul_red_avx
  10882. vpshufd $0x4e, %xmm1, %xmm9
  10883. vpshufd $0x4e, %xmm3, %xmm10
  10884. vpclmulqdq $0x11, %xmm1, %xmm3, %xmm11
  10885. vpclmulqdq $0x00, %xmm1, %xmm3, %xmm8
  10886. vpxor %xmm1, %xmm9, %xmm9
  10887. vpxor %xmm3, %xmm10, %xmm10
  10888. vpclmulqdq $0x00, %xmm10, %xmm9, %xmm9
  10889. vpxor %xmm8, %xmm9, %xmm9
  10890. vpxor %xmm11, %xmm9, %xmm9
  10891. vpslldq $8, %xmm9, %xmm10
  10892. vpsrldq $8, %xmm9, %xmm9
  10893. vpxor %xmm10, %xmm8, %xmm8
  10894. vpxor %xmm9, %xmm11, %xmm7
  10895. vpslld $31, %xmm8, %xmm12
  10896. vpslld $30, %xmm8, %xmm13
  10897. vpslld $25, %xmm8, %xmm14
  10898. vpxor %xmm13, %xmm12, %xmm12
  10899. vpxor %xmm14, %xmm12, %xmm12
  10900. vpsrldq $4, %xmm12, %xmm13
  10901. vpslldq $12, %xmm12, %xmm12
  10902. vpxor %xmm12, %xmm8, %xmm8
  10903. vpsrld $0x01, %xmm8, %xmm14
  10904. vpsrld $2, %xmm8, %xmm10
  10905. vpsrld $7, %xmm8, %xmm9
  10906. vpxor %xmm10, %xmm14, %xmm14
  10907. vpxor %xmm9, %xmm14, %xmm14
  10908. vpxor %xmm13, %xmm14, %xmm14
  10909. vpxor %xmm8, %xmm14, %xmm14
  10910. vpxor %xmm14, %xmm7, %xmm7
  10911. vmovdqa %xmm7, 96(%rsp)
  10912. # H ^ 8
  10913. vpclmulqdq $0x00, %xmm3, %xmm3, %xmm8
  10914. vpclmulqdq $0x11, %xmm3, %xmm3, %xmm7
  10915. vpslld $31, %xmm8, %xmm12
  10916. vpslld $30, %xmm8, %xmm13
  10917. vpslld $25, %xmm8, %xmm14
  10918. vpxor %xmm13, %xmm12, %xmm12
  10919. vpxor %xmm14, %xmm12, %xmm12
  10920. vpsrldq $4, %xmm12, %xmm13
  10921. vpslldq $12, %xmm12, %xmm12
  10922. vpxor %xmm12, %xmm8, %xmm8
  10923. vpsrld $0x01, %xmm8, %xmm14
  10924. vpsrld $2, %xmm8, %xmm10
  10925. vpsrld $7, %xmm8, %xmm9
  10926. vpxor %xmm10, %xmm14, %xmm14
  10927. vpxor %xmm9, %xmm14, %xmm14
  10928. vpxor %xmm13, %xmm14, %xmm14
  10929. vpxor %xmm8, %xmm14, %xmm14
  10930. vpxor %xmm14, %xmm7, %xmm7
  10931. vmovdqa %xmm7, 112(%rsp)
  10932. L_AES_GCM_decrypt_update_avx1_ghash_128:
  10933. leaq (%r11,%r14,1), %rcx
  10934. leaq (%r10,%r14,1), %rdx
  10935. vmovdqa (%r12), %xmm0
  10936. vmovdqa L_avx1_aes_gcm_bswap_epi64(%rip), %xmm1
  10937. vpshufb %xmm1, %xmm0, %xmm8
  10938. vpaddd L_avx1_aes_gcm_one(%rip), %xmm0, %xmm9
  10939. vpshufb %xmm1, %xmm9, %xmm9
  10940. vpaddd L_avx1_aes_gcm_two(%rip), %xmm0, %xmm10
  10941. vpshufb %xmm1, %xmm10, %xmm10
  10942. vpaddd L_avx1_aes_gcm_three(%rip), %xmm0, %xmm11
  10943. vpshufb %xmm1, %xmm11, %xmm11
  10944. vpaddd L_avx1_aes_gcm_four(%rip), %xmm0, %xmm12
  10945. vpshufb %xmm1, %xmm12, %xmm12
  10946. vpaddd L_avx1_aes_gcm_five(%rip), %xmm0, %xmm13
  10947. vpshufb %xmm1, %xmm13, %xmm13
  10948. vpaddd L_avx1_aes_gcm_six(%rip), %xmm0, %xmm14
  10949. vpshufb %xmm1, %xmm14, %xmm14
  10950. vpaddd L_avx1_aes_gcm_seven(%rip), %xmm0, %xmm15
  10951. vpshufb %xmm1, %xmm15, %xmm15
  10952. vpaddd L_avx1_aes_gcm_eight(%rip), %xmm0, %xmm0
  10953. vmovdqa (%rdi), %xmm7
  10954. vmovdqa %xmm0, (%r12)
  10955. vpxor %xmm7, %xmm8, %xmm8
  10956. vpxor %xmm7, %xmm9, %xmm9
  10957. vpxor %xmm7, %xmm10, %xmm10
  10958. vpxor %xmm7, %xmm11, %xmm11
  10959. vpxor %xmm7, %xmm12, %xmm12
  10960. vpxor %xmm7, %xmm13, %xmm13
  10961. vpxor %xmm7, %xmm14, %xmm14
  10962. vpxor %xmm7, %xmm15, %xmm15
  10963. vmovdqa 112(%rsp), %xmm7
  10964. vmovdqu (%rcx), %xmm0
  10965. vaesenc 16(%rdi), %xmm8, %xmm8
  10966. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  10967. vpxor %xmm2, %xmm0, %xmm0
  10968. vpshufd $0x4e, %xmm7, %xmm1
  10969. vpshufd $0x4e, %xmm0, %xmm5
  10970. vpxor %xmm7, %xmm1, %xmm1
  10971. vpxor %xmm0, %xmm5, %xmm5
  10972. vpclmulqdq $0x11, %xmm7, %xmm0, %xmm3
  10973. vaesenc 16(%rdi), %xmm9, %xmm9
  10974. vaesenc 16(%rdi), %xmm10, %xmm10
  10975. vpclmulqdq $0x00, %xmm7, %xmm0, %xmm2
  10976. vaesenc 16(%rdi), %xmm11, %xmm11
  10977. vaesenc 16(%rdi), %xmm12, %xmm12
  10978. vpclmulqdq $0x00, %xmm5, %xmm1, %xmm1
  10979. vaesenc 16(%rdi), %xmm13, %xmm13
  10980. vaesenc 16(%rdi), %xmm14, %xmm14
  10981. vaesenc 16(%rdi), %xmm15, %xmm15
  10982. vpxor %xmm2, %xmm1, %xmm1
  10983. vpxor %xmm3, %xmm1, %xmm1
  10984. vmovdqa 96(%rsp), %xmm7
  10985. vmovdqu 16(%rcx), %xmm0
  10986. vpshufd $0x4e, %xmm7, %xmm4
  10987. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  10988. vaesenc 32(%rdi), %xmm8, %xmm8
  10989. vpxor %xmm7, %xmm4, %xmm4
  10990. vpshufd $0x4e, %xmm0, %xmm5
  10991. vpxor %xmm0, %xmm5, %xmm5
  10992. vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
  10993. vaesenc 32(%rdi), %xmm9, %xmm9
  10994. vaesenc 32(%rdi), %xmm10, %xmm10
  10995. vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
  10996. vaesenc 32(%rdi), %xmm11, %xmm11
  10997. vaesenc 32(%rdi), %xmm12, %xmm12
  10998. vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
  10999. vaesenc 32(%rdi), %xmm13, %xmm13
  11000. vaesenc 32(%rdi), %xmm14, %xmm14
  11001. vaesenc 32(%rdi), %xmm15, %xmm15
  11002. vpxor %xmm7, %xmm1, %xmm1
  11003. vpxor %xmm7, %xmm2, %xmm2
  11004. vpxor %xmm6, %xmm1, %xmm1
  11005. vpxor %xmm6, %xmm3, %xmm3
  11006. vpxor %xmm4, %xmm1, %xmm1
  11007. vmovdqa 80(%rsp), %xmm7
  11008. vmovdqu 32(%rcx), %xmm0
  11009. vpshufd $0x4e, %xmm7, %xmm4
  11010. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  11011. vaesenc 48(%rdi), %xmm8, %xmm8
  11012. vpxor %xmm7, %xmm4, %xmm4
  11013. vpshufd $0x4e, %xmm0, %xmm5
  11014. vpxor %xmm0, %xmm5, %xmm5
  11015. vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
  11016. vaesenc 48(%rdi), %xmm9, %xmm9
  11017. vaesenc 48(%rdi), %xmm10, %xmm10
  11018. vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
  11019. vaesenc 48(%rdi), %xmm11, %xmm11
  11020. vaesenc 48(%rdi), %xmm12, %xmm12
  11021. vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
  11022. vaesenc 48(%rdi), %xmm13, %xmm13
  11023. vaesenc 48(%rdi), %xmm14, %xmm14
  11024. vaesenc 48(%rdi), %xmm15, %xmm15
  11025. vpxor %xmm7, %xmm1, %xmm1
  11026. vpxor %xmm7, %xmm2, %xmm2
  11027. vpxor %xmm6, %xmm1, %xmm1
  11028. vpxor %xmm6, %xmm3, %xmm3
  11029. vpxor %xmm4, %xmm1, %xmm1
  11030. vmovdqa 64(%rsp), %xmm7
  11031. vmovdqu 48(%rcx), %xmm0
  11032. vpshufd $0x4e, %xmm7, %xmm4
  11033. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  11034. vaesenc 64(%rdi), %xmm8, %xmm8
  11035. vpxor %xmm7, %xmm4, %xmm4
  11036. vpshufd $0x4e, %xmm0, %xmm5
  11037. vpxor %xmm0, %xmm5, %xmm5
  11038. vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
  11039. vaesenc 64(%rdi), %xmm9, %xmm9
  11040. vaesenc 64(%rdi), %xmm10, %xmm10
  11041. vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
  11042. vaesenc 64(%rdi), %xmm11, %xmm11
  11043. vaesenc 64(%rdi), %xmm12, %xmm12
  11044. vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
  11045. vaesenc 64(%rdi), %xmm13, %xmm13
  11046. vaesenc 64(%rdi), %xmm14, %xmm14
  11047. vaesenc 64(%rdi), %xmm15, %xmm15
  11048. vpxor %xmm7, %xmm1, %xmm1
  11049. vpxor %xmm7, %xmm2, %xmm2
  11050. vpxor %xmm6, %xmm1, %xmm1
  11051. vpxor %xmm6, %xmm3, %xmm3
  11052. vpxor %xmm4, %xmm1, %xmm1
  11053. vmovdqa 48(%rsp), %xmm7
  11054. vmovdqu 64(%rcx), %xmm0
  11055. vpshufd $0x4e, %xmm7, %xmm4
  11056. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  11057. vaesenc 80(%rdi), %xmm8, %xmm8
  11058. vpxor %xmm7, %xmm4, %xmm4
  11059. vpshufd $0x4e, %xmm0, %xmm5
  11060. vpxor %xmm0, %xmm5, %xmm5
  11061. vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
  11062. vaesenc 80(%rdi), %xmm9, %xmm9
  11063. vaesenc 80(%rdi), %xmm10, %xmm10
  11064. vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
  11065. vaesenc 80(%rdi), %xmm11, %xmm11
  11066. vaesenc 80(%rdi), %xmm12, %xmm12
  11067. vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
  11068. vaesenc 80(%rdi), %xmm13, %xmm13
  11069. vaesenc 80(%rdi), %xmm14, %xmm14
  11070. vaesenc 80(%rdi), %xmm15, %xmm15
  11071. vpxor %xmm7, %xmm1, %xmm1
  11072. vpxor %xmm7, %xmm2, %xmm2
  11073. vpxor %xmm6, %xmm1, %xmm1
  11074. vpxor %xmm6, %xmm3, %xmm3
  11075. vpxor %xmm4, %xmm1, %xmm1
  11076. vmovdqa 32(%rsp), %xmm7
  11077. vmovdqu 80(%rcx), %xmm0
  11078. vpshufd $0x4e, %xmm7, %xmm4
  11079. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  11080. vaesenc 96(%rdi), %xmm8, %xmm8
  11081. vpxor %xmm7, %xmm4, %xmm4
  11082. vpshufd $0x4e, %xmm0, %xmm5
  11083. vpxor %xmm0, %xmm5, %xmm5
  11084. vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
  11085. vaesenc 96(%rdi), %xmm9, %xmm9
  11086. vaesenc 96(%rdi), %xmm10, %xmm10
  11087. vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
  11088. vaesenc 96(%rdi), %xmm11, %xmm11
  11089. vaesenc 96(%rdi), %xmm12, %xmm12
  11090. vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
  11091. vaesenc 96(%rdi), %xmm13, %xmm13
  11092. vaesenc 96(%rdi), %xmm14, %xmm14
  11093. vaesenc 96(%rdi), %xmm15, %xmm15
  11094. vpxor %xmm7, %xmm1, %xmm1
  11095. vpxor %xmm7, %xmm2, %xmm2
  11096. vpxor %xmm6, %xmm1, %xmm1
  11097. vpxor %xmm6, %xmm3, %xmm3
  11098. vpxor %xmm4, %xmm1, %xmm1
  11099. vmovdqa 16(%rsp), %xmm7
  11100. vmovdqu 96(%rcx), %xmm0
  11101. vpshufd $0x4e, %xmm7, %xmm4
  11102. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  11103. vaesenc 112(%rdi), %xmm8, %xmm8
  11104. vpxor %xmm7, %xmm4, %xmm4
  11105. vpshufd $0x4e, %xmm0, %xmm5
  11106. vpxor %xmm0, %xmm5, %xmm5
  11107. vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
  11108. vaesenc 112(%rdi), %xmm9, %xmm9
  11109. vaesenc 112(%rdi), %xmm10, %xmm10
  11110. vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
  11111. vaesenc 112(%rdi), %xmm11, %xmm11
  11112. vaesenc 112(%rdi), %xmm12, %xmm12
  11113. vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
  11114. vaesenc 112(%rdi), %xmm13, %xmm13
  11115. vaesenc 112(%rdi), %xmm14, %xmm14
  11116. vaesenc 112(%rdi), %xmm15, %xmm15
  11117. vpxor %xmm7, %xmm1, %xmm1
  11118. vpxor %xmm7, %xmm2, %xmm2
  11119. vpxor %xmm6, %xmm1, %xmm1
  11120. vpxor %xmm6, %xmm3, %xmm3
  11121. vpxor %xmm4, %xmm1, %xmm1
  11122. vmovdqa (%rsp), %xmm7
  11123. vmovdqu 112(%rcx), %xmm0
  11124. vpshufd $0x4e, %xmm7, %xmm4
  11125. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  11126. vaesenc 128(%rdi), %xmm8, %xmm8
  11127. vpxor %xmm7, %xmm4, %xmm4
  11128. vpshufd $0x4e, %xmm0, %xmm5
  11129. vpxor %xmm0, %xmm5, %xmm5
  11130. vpclmulqdq $0x11, %xmm7, %xmm0, %xmm6
  11131. vaesenc 128(%rdi), %xmm9, %xmm9
  11132. vaesenc 128(%rdi), %xmm10, %xmm10
  11133. vpclmulqdq $0x00, %xmm7, %xmm0, %xmm7
  11134. vaesenc 128(%rdi), %xmm11, %xmm11
  11135. vaesenc 128(%rdi), %xmm12, %xmm12
  11136. vpclmulqdq $0x00, %xmm5, %xmm4, %xmm4
  11137. vaesenc 128(%rdi), %xmm13, %xmm13
  11138. vaesenc 128(%rdi), %xmm14, %xmm14
  11139. vaesenc 128(%rdi), %xmm15, %xmm15
  11140. vpxor %xmm7, %xmm1, %xmm1
  11141. vpxor %xmm7, %xmm2, %xmm2
  11142. vpxor %xmm6, %xmm1, %xmm1
  11143. vpxor %xmm6, %xmm3, %xmm3
  11144. vpxor %xmm4, %xmm1, %xmm1
  11145. vpslldq $8, %xmm1, %xmm5
  11146. vpsrldq $8, %xmm1, %xmm1
  11147. vaesenc 144(%rdi), %xmm8, %xmm8
  11148. vpxor %xmm5, %xmm2, %xmm2
  11149. vpxor %xmm1, %xmm3, %xmm3
  11150. vaesenc 144(%rdi), %xmm9, %xmm9
  11151. vpslld $31, %xmm2, %xmm7
  11152. vpslld $30, %xmm2, %xmm4
  11153. vpslld $25, %xmm2, %xmm5
  11154. vaesenc 144(%rdi), %xmm10, %xmm10
  11155. vpxor %xmm4, %xmm7, %xmm7
  11156. vpxor %xmm5, %xmm7, %xmm7
  11157. vaesenc 144(%rdi), %xmm11, %xmm11
  11158. vpsrldq $4, %xmm7, %xmm4
  11159. vpslldq $12, %xmm7, %xmm7
  11160. vaesenc 144(%rdi), %xmm12, %xmm12
  11161. vpxor %xmm7, %xmm2, %xmm2
  11162. vpsrld $0x01, %xmm2, %xmm5
  11163. vaesenc 144(%rdi), %xmm13, %xmm13
  11164. vpsrld $2, %xmm2, %xmm1
  11165. vpsrld $7, %xmm2, %xmm0
  11166. vaesenc 144(%rdi), %xmm14, %xmm14
  11167. vpxor %xmm1, %xmm5, %xmm5
  11168. vpxor %xmm0, %xmm5, %xmm5
  11169. vaesenc 144(%rdi), %xmm15, %xmm15
  11170. vpxor %xmm4, %xmm5, %xmm5
  11171. vpxor %xmm5, %xmm2, %xmm2
  11172. vpxor %xmm3, %xmm2, %xmm2
  11173. cmpl $11, %esi
  11174. vmovdqa 160(%rdi), %xmm7
  11175. jl L_AES_GCM_decrypt_update_avx1_aesenc_128_ghash_avx_done
  11176. vaesenc %xmm7, %xmm8, %xmm8
  11177. vaesenc %xmm7, %xmm9, %xmm9
  11178. vaesenc %xmm7, %xmm10, %xmm10
  11179. vaesenc %xmm7, %xmm11, %xmm11
  11180. vaesenc %xmm7, %xmm12, %xmm12
  11181. vaesenc %xmm7, %xmm13, %xmm13
  11182. vaesenc %xmm7, %xmm14, %xmm14
  11183. vaesenc %xmm7, %xmm15, %xmm15
  11184. vmovdqa 176(%rdi), %xmm7
  11185. vaesenc %xmm7, %xmm8, %xmm8
  11186. vaesenc %xmm7, %xmm9, %xmm9
  11187. vaesenc %xmm7, %xmm10, %xmm10
  11188. vaesenc %xmm7, %xmm11, %xmm11
  11189. vaesenc %xmm7, %xmm12, %xmm12
  11190. vaesenc %xmm7, %xmm13, %xmm13
  11191. vaesenc %xmm7, %xmm14, %xmm14
  11192. vaesenc %xmm7, %xmm15, %xmm15
  11193. cmpl $13, %esi
  11194. vmovdqa 192(%rdi), %xmm7
  11195. jl L_AES_GCM_decrypt_update_avx1_aesenc_128_ghash_avx_done
  11196. vaesenc %xmm7, %xmm8, %xmm8
  11197. vaesenc %xmm7, %xmm9, %xmm9
  11198. vaesenc %xmm7, %xmm10, %xmm10
  11199. vaesenc %xmm7, %xmm11, %xmm11
  11200. vaesenc %xmm7, %xmm12, %xmm12
  11201. vaesenc %xmm7, %xmm13, %xmm13
  11202. vaesenc %xmm7, %xmm14, %xmm14
  11203. vaesenc %xmm7, %xmm15, %xmm15
  11204. vmovdqa 208(%rdi), %xmm7
  11205. vaesenc %xmm7, %xmm8, %xmm8
  11206. vaesenc %xmm7, %xmm9, %xmm9
  11207. vaesenc %xmm7, %xmm10, %xmm10
  11208. vaesenc %xmm7, %xmm11, %xmm11
  11209. vaesenc %xmm7, %xmm12, %xmm12
  11210. vaesenc %xmm7, %xmm13, %xmm13
  11211. vaesenc %xmm7, %xmm14, %xmm14
  11212. vaesenc %xmm7, %xmm15, %xmm15
  11213. vmovdqa 224(%rdi), %xmm7
  11214. L_AES_GCM_decrypt_update_avx1_aesenc_128_ghash_avx_done:
  11215. vaesenclast %xmm7, %xmm8, %xmm8
  11216. vaesenclast %xmm7, %xmm9, %xmm9
  11217. vmovdqu (%rcx), %xmm0
  11218. vmovdqu 16(%rcx), %xmm1
  11219. vpxor %xmm0, %xmm8, %xmm8
  11220. vpxor %xmm1, %xmm9, %xmm9
  11221. vmovdqu %xmm8, (%rdx)
  11222. vmovdqu %xmm9, 16(%rdx)
  11223. vaesenclast %xmm7, %xmm10, %xmm10
  11224. vaesenclast %xmm7, %xmm11, %xmm11
  11225. vmovdqu 32(%rcx), %xmm0
  11226. vmovdqu 48(%rcx), %xmm1
  11227. vpxor %xmm0, %xmm10, %xmm10
  11228. vpxor %xmm1, %xmm11, %xmm11
  11229. vmovdqu %xmm10, 32(%rdx)
  11230. vmovdqu %xmm11, 48(%rdx)
  11231. vaesenclast %xmm7, %xmm12, %xmm12
  11232. vaesenclast %xmm7, %xmm13, %xmm13
  11233. vmovdqu 64(%rcx), %xmm0
  11234. vmovdqu 80(%rcx), %xmm1
  11235. vpxor %xmm0, %xmm12, %xmm12
  11236. vpxor %xmm1, %xmm13, %xmm13
  11237. vmovdqu %xmm12, 64(%rdx)
  11238. vmovdqu %xmm13, 80(%rdx)
  11239. vaesenclast %xmm7, %xmm14, %xmm14
  11240. vaesenclast %xmm7, %xmm15, %xmm15
  11241. vmovdqu 96(%rcx), %xmm0
  11242. vmovdqu 112(%rcx), %xmm1
  11243. vpxor %xmm0, %xmm14, %xmm14
  11244. vpxor %xmm1, %xmm15, %xmm15
  11245. vmovdqu %xmm14, 96(%rdx)
  11246. vmovdqu %xmm15, 112(%rdx)
  11247. addl $0x80, %r14d
  11248. cmpl %r13d, %r14d
  11249. jl L_AES_GCM_decrypt_update_avx1_ghash_128
  11250. vmovdqa %xmm2, %xmm6
  11251. vmovdqa (%rsp), %xmm5
  11252. L_AES_GCM_decrypt_update_avx1_done_128:
  11253. movl %r8d, %edx
  11254. cmpl %edx, %r14d
  11255. jge L_AES_GCM_decrypt_update_avx1_done_dec
  11256. movl %r8d, %r13d
  11257. andl $0xfffffff0, %r13d
  11258. cmpl %r13d, %r14d
  11259. jge L_AES_GCM_decrypt_update_avx1_last_block_done
  11260. L_AES_GCM_decrypt_update_avx1_last_block_start:
  11261. vmovdqu (%r11,%r14,1), %xmm13
  11262. vmovdqa %xmm5, %xmm0
  11263. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm13, %xmm1
  11264. vpxor %xmm6, %xmm1, %xmm1
  11265. vmovdqa (%r12), %xmm9
  11266. vpshufb L_avx1_aes_gcm_bswap_epi64(%rip), %xmm9, %xmm8
  11267. vpaddd L_avx1_aes_gcm_one(%rip), %xmm9, %xmm9
  11268. vmovdqa %xmm9, (%r12)
  11269. vpxor (%rdi), %xmm8, %xmm8
  11270. vpclmulqdq $16, %xmm0, %xmm1, %xmm10
  11271. vaesenc 16(%rdi), %xmm8, %xmm8
  11272. vaesenc 32(%rdi), %xmm8, %xmm8
  11273. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm11
  11274. vaesenc 48(%rdi), %xmm8, %xmm8
  11275. vaesenc 64(%rdi), %xmm8, %xmm8
  11276. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm12
  11277. vaesenc 80(%rdi), %xmm8, %xmm8
  11278. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
  11279. vaesenc 96(%rdi), %xmm8, %xmm8
  11280. vpxor %xmm11, %xmm10, %xmm10
  11281. vpslldq $8, %xmm10, %xmm2
  11282. vpsrldq $8, %xmm10, %xmm10
  11283. vaesenc 112(%rdi), %xmm8, %xmm8
  11284. vpxor %xmm12, %xmm2, %xmm2
  11285. vpxor %xmm10, %xmm1, %xmm3
  11286. vmovdqa L_avx1_aes_gcm_mod2_128(%rip), %xmm0
  11287. vpclmulqdq $16, %xmm0, %xmm2, %xmm11
  11288. vaesenc 128(%rdi), %xmm8, %xmm8
  11289. vpshufd $0x4e, %xmm2, %xmm10
  11290. vpxor %xmm11, %xmm10, %xmm10
  11291. vpclmulqdq $16, %xmm0, %xmm10, %xmm11
  11292. vaesenc 144(%rdi), %xmm8, %xmm8
  11293. vpshufd $0x4e, %xmm10, %xmm10
  11294. vpxor %xmm11, %xmm10, %xmm10
  11295. vpxor %xmm3, %xmm10, %xmm6
  11296. cmpl $11, %esi
  11297. vmovdqa 160(%rdi), %xmm9
  11298. jl L_AES_GCM_decrypt_update_avx1_aesenc_gfmul_last
  11299. vaesenc %xmm9, %xmm8, %xmm8
  11300. vaesenc 176(%rdi), %xmm8, %xmm8
  11301. cmpl $13, %esi
  11302. vmovdqa 192(%rdi), %xmm9
  11303. jl L_AES_GCM_decrypt_update_avx1_aesenc_gfmul_last
  11304. vaesenc %xmm9, %xmm8, %xmm8
  11305. vaesenc 208(%rdi), %xmm8, %xmm8
  11306. vmovdqa 224(%rdi), %xmm9
  11307. L_AES_GCM_decrypt_update_avx1_aesenc_gfmul_last:
  11308. vaesenclast %xmm9, %xmm8, %xmm8
  11309. vmovdqa %xmm13, %xmm0
  11310. vpxor %xmm0, %xmm8, %xmm8
  11311. vmovdqu %xmm8, (%r10,%r14,1)
  11312. addl $16, %r14d
  11313. cmpl %r13d, %r14d
  11314. jl L_AES_GCM_decrypt_update_avx1_last_block_start
  11315. L_AES_GCM_decrypt_update_avx1_last_block_done:
  11316. L_AES_GCM_decrypt_update_avx1_done_dec:
  11317. vmovdqa %xmm6, (%r9)
  11318. vzeroupper
  11319. addq $0xa8, %rsp
  11320. popq %r14
  11321. popq %r12
  11322. popq %r13
  11323. repz retq
  11324. #ifndef __APPLE__
  11325. .size AES_GCM_decrypt_update_avx1,.-AES_GCM_decrypt_update_avx1
  11326. #endif /* __APPLE__ */
  11327. #ifndef __APPLE__
  11328. .text
  11329. .globl AES_GCM_decrypt_final_avx1
  11330. .type AES_GCM_decrypt_final_avx1,@function
  11331. .align 16
  11332. AES_GCM_decrypt_final_avx1:
  11333. #else
  11334. .section __TEXT,__text
  11335. .globl _AES_GCM_decrypt_final_avx1
  11336. .p2align 4
  11337. _AES_GCM_decrypt_final_avx1:
  11338. #endif /* __APPLE__ */
  11339. pushq %r13
  11340. pushq %rbp
  11341. pushq %r12
  11342. movq %rdx, %rax
  11343. movl %ecx, %r10d
  11344. movl %r8d, %r11d
  11345. movq 32(%rsp), %r8
  11346. movq 40(%rsp), %rbp
  11347. subq $16, %rsp
  11348. vmovdqa (%rdi), %xmm6
  11349. vmovdqa (%r9), %xmm5
  11350. vmovdqa (%r8), %xmm15
  11351. vpsrlq $63, %xmm5, %xmm9
  11352. vpsllq $0x01, %xmm5, %xmm8
  11353. vpslldq $8, %xmm9, %xmm9
  11354. vpor %xmm9, %xmm8, %xmm8
  11355. vpshufd $0xff, %xmm5, %xmm5
  11356. vpsrad $31, %xmm5, %xmm5
  11357. vpand L_avx1_aes_gcm_mod2_128(%rip), %xmm5, %xmm5
  11358. vpxor %xmm8, %xmm5, %xmm5
  11359. movl %r10d, %edx
  11360. movl %r11d, %ecx
  11361. shlq $3, %rdx
  11362. shlq $3, %rcx
  11363. vpinsrq $0x00, %rdx, %xmm0, %xmm0
  11364. vpinsrq $0x01, %rcx, %xmm0, %xmm0
  11365. vpxor %xmm0, %xmm6, %xmm6
  11366. # ghash_gfmul_red_avx
  11367. vpshufd $0x4e, %xmm5, %xmm9
  11368. vpshufd $0x4e, %xmm6, %xmm10
  11369. vpclmulqdq $0x11, %xmm5, %xmm6, %xmm11
  11370. vpclmulqdq $0x00, %xmm5, %xmm6, %xmm8
  11371. vpxor %xmm5, %xmm9, %xmm9
  11372. vpxor %xmm6, %xmm10, %xmm10
  11373. vpclmulqdq $0x00, %xmm10, %xmm9, %xmm9
  11374. vpxor %xmm8, %xmm9, %xmm9
  11375. vpxor %xmm11, %xmm9, %xmm9
  11376. vpslldq $8, %xmm9, %xmm10
  11377. vpsrldq $8, %xmm9, %xmm9
  11378. vpxor %xmm10, %xmm8, %xmm8
  11379. vpxor %xmm9, %xmm11, %xmm6
  11380. vpslld $31, %xmm8, %xmm12
  11381. vpslld $30, %xmm8, %xmm13
  11382. vpslld $25, %xmm8, %xmm14
  11383. vpxor %xmm13, %xmm12, %xmm12
  11384. vpxor %xmm14, %xmm12, %xmm12
  11385. vpsrldq $4, %xmm12, %xmm13
  11386. vpslldq $12, %xmm12, %xmm12
  11387. vpxor %xmm12, %xmm8, %xmm8
  11388. vpsrld $0x01, %xmm8, %xmm14
  11389. vpsrld $2, %xmm8, %xmm10
  11390. vpsrld $7, %xmm8, %xmm9
  11391. vpxor %xmm10, %xmm14, %xmm14
  11392. vpxor %xmm9, %xmm14, %xmm14
  11393. vpxor %xmm13, %xmm14, %xmm14
  11394. vpxor %xmm8, %xmm14, %xmm14
  11395. vpxor %xmm14, %xmm6, %xmm6
  11396. vpshufb L_avx1_aes_gcm_bswap_mask(%rip), %xmm6, %xmm6
  11397. vpxor %xmm15, %xmm6, %xmm0
  11398. cmpl $16, %eax
  11399. je L_AES_GCM_decrypt_final_avx1_cmp_tag_16
  11400. subq $16, %rsp
  11401. xorq %rcx, %rcx
  11402. xorq %r12, %r12
  11403. vmovdqu %xmm0, (%rsp)
  11404. L_AES_GCM_decrypt_final_avx1_cmp_tag_loop:
  11405. movzbl (%rsp,%rcx,1), %r13d
  11406. xorb (%rsi,%rcx,1), %r13b
  11407. orb %r13b, %r12b
  11408. incl %ecx
  11409. cmpl %eax, %ecx
  11410. jne L_AES_GCM_decrypt_final_avx1_cmp_tag_loop
  11411. cmpb $0x00, %r12b
  11412. sete %r12b
  11413. addq $16, %rsp
  11414. xorq %rcx, %rcx
  11415. jmp L_AES_GCM_decrypt_final_avx1_cmp_tag_done
  11416. L_AES_GCM_decrypt_final_avx1_cmp_tag_16:
  11417. vmovdqu (%rsi), %xmm1
  11418. vpcmpeqb %xmm1, %xmm0, %xmm0
  11419. vpmovmskb %xmm0, %rdx
  11420. # %%edx == 0xFFFF then return 1 else => return 0
  11421. xorl %r12d, %r12d
  11422. cmpl $0xffff, %edx
  11423. sete %r12b
  11424. L_AES_GCM_decrypt_final_avx1_cmp_tag_done:
  11425. movl %r12d, (%rbp)
  11426. vzeroupper
  11427. addq $16, %rsp
  11428. popq %r12
  11429. popq %rbp
  11430. popq %r13
  11431. repz retq
  11432. #ifndef __APPLE__
  11433. .size AES_GCM_decrypt_final_avx1,.-AES_GCM_decrypt_final_avx1
  11434. #endif /* __APPLE__ */
  11435. #endif /* WOLFSSL_AESGCM_STREAM */
  11436. #endif /* HAVE_INTEL_AVX1 */
  11437. #ifdef HAVE_INTEL_AVX2
  11438. #ifndef __APPLE__
  11439. .data
  11440. #else
  11441. .section __DATA,__data
  11442. #endif /* __APPLE__ */
  11443. #ifndef __APPLE__
  11444. .align 16
  11445. #else
  11446. .p2align 4
  11447. #endif /* __APPLE__ */
  11448. L_avx2_aes_gcm_one:
  11449. .quad 0x0, 0x1
  11450. #ifndef __APPLE__
  11451. .data
  11452. #else
  11453. .section __DATA,__data
  11454. #endif /* __APPLE__ */
  11455. #ifndef __APPLE__
  11456. .align 16
  11457. #else
  11458. .p2align 4
  11459. #endif /* __APPLE__ */
  11460. L_avx2_aes_gcm_two:
  11461. .quad 0x0, 0x2
  11462. #ifndef __APPLE__
  11463. .data
  11464. #else
  11465. .section __DATA,__data
  11466. #endif /* __APPLE__ */
  11467. #ifndef __APPLE__
  11468. .align 16
  11469. #else
  11470. .p2align 4
  11471. #endif /* __APPLE__ */
  11472. L_avx2_aes_gcm_three:
  11473. .quad 0x0, 0x3
  11474. #ifndef __APPLE__
  11475. .data
  11476. #else
  11477. .section __DATA,__data
  11478. #endif /* __APPLE__ */
  11479. #ifndef __APPLE__
  11480. .align 16
  11481. #else
  11482. .p2align 4
  11483. #endif /* __APPLE__ */
  11484. L_avx2_aes_gcm_four:
  11485. .quad 0x0, 0x4
  11486. #ifndef __APPLE__
  11487. .data
  11488. #else
  11489. .section __DATA,__data
  11490. #endif /* __APPLE__ */
  11491. #ifndef __APPLE__
  11492. .align 16
  11493. #else
  11494. .p2align 4
  11495. #endif /* __APPLE__ */
  11496. L_avx2_aes_gcm_five:
  11497. .quad 0x0, 0x5
  11498. #ifndef __APPLE__
  11499. .data
  11500. #else
  11501. .section __DATA,__data
  11502. #endif /* __APPLE__ */
  11503. #ifndef __APPLE__
  11504. .align 16
  11505. #else
  11506. .p2align 4
  11507. #endif /* __APPLE__ */
  11508. L_avx2_aes_gcm_six:
  11509. .quad 0x0, 0x6
  11510. #ifndef __APPLE__
  11511. .data
  11512. #else
  11513. .section __DATA,__data
  11514. #endif /* __APPLE__ */
  11515. #ifndef __APPLE__
  11516. .align 16
  11517. #else
  11518. .p2align 4
  11519. #endif /* __APPLE__ */
  11520. L_avx2_aes_gcm_seven:
  11521. .quad 0x0, 0x7
  11522. #ifndef __APPLE__
  11523. .data
  11524. #else
  11525. .section __DATA,__data
  11526. #endif /* __APPLE__ */
  11527. #ifndef __APPLE__
  11528. .align 16
  11529. #else
  11530. .p2align 4
  11531. #endif /* __APPLE__ */
  11532. L_avx2_aes_gcm_eight:
  11533. .quad 0x0, 0x8
  11534. #ifndef __APPLE__
  11535. .data
  11536. #else
  11537. .section __DATA,__data
  11538. #endif /* __APPLE__ */
  11539. #ifndef __APPLE__
  11540. .align 16
  11541. #else
  11542. .p2align 4
  11543. #endif /* __APPLE__ */
  11544. L_avx2_aes_gcm_bswap_one:
  11545. .quad 0x0, 0x100000000000000
  11546. #ifndef __APPLE__
  11547. .data
  11548. #else
  11549. .section __DATA,__data
  11550. #endif /* __APPLE__ */
  11551. #ifndef __APPLE__
  11552. .align 16
  11553. #else
  11554. .p2align 4
  11555. #endif /* __APPLE__ */
  11556. L_avx2_aes_gcm_bswap_epi64:
  11557. .quad 0x1020304050607, 0x8090a0b0c0d0e0f
  11558. #ifndef __APPLE__
  11559. .data
  11560. #else
  11561. .section __DATA,__data
  11562. #endif /* __APPLE__ */
  11563. #ifndef __APPLE__
  11564. .align 16
  11565. #else
  11566. .p2align 4
  11567. #endif /* __APPLE__ */
  11568. L_avx2_aes_gcm_bswap_mask:
  11569. .quad 0x8090a0b0c0d0e0f, 0x1020304050607
  11570. #ifndef __APPLE__
  11571. .data
  11572. #else
  11573. .section __DATA,__data
  11574. #endif /* __APPLE__ */
  11575. #ifndef __APPLE__
  11576. .align 16
  11577. #else
  11578. .p2align 4
  11579. #endif /* __APPLE__ */
  11580. L_avx2_aes_gcm_mod2_128:
  11581. .quad 0x1, 0xc200000000000000
  11582. #ifndef __APPLE__
  11583. .text
  11584. .globl AES_GCM_encrypt_avx2
  11585. .type AES_GCM_encrypt_avx2,@function
  11586. .align 16
  11587. AES_GCM_encrypt_avx2:
  11588. #else
  11589. .section __TEXT,__text
  11590. .globl _AES_GCM_encrypt_avx2
  11591. .p2align 4
  11592. _AES_GCM_encrypt_avx2:
  11593. #endif /* __APPLE__ */
  11594. pushq %r13
  11595. pushq %r12
  11596. pushq %r15
  11597. pushq %rbx
  11598. pushq %r14
  11599. movq %rdx, %r12
  11600. movq %rcx, %rax
  11601. movq %r8, %r15
  11602. movq %rsi, %r8
  11603. movl %r9d, %r10d
  11604. movl 48(%rsp), %r11d
  11605. movl 56(%rsp), %ebx
  11606. movl 64(%rsp), %r14d
  11607. movq 72(%rsp), %rsi
  11608. movl 80(%rsp), %r9d
  11609. subq $0xa0, %rsp
  11610. vpxor %xmm4, %xmm4, %xmm4
  11611. vpxor %xmm6, %xmm6, %xmm6
  11612. movl %ebx, %edx
  11613. cmpl $12, %edx
  11614. je L_AES_GCM_encrypt_avx2_iv_12
  11615. # Calculate values when IV is not 12 bytes
  11616. # H = Encrypt X(=0)
  11617. vmovdqu (%rsi), %xmm5
  11618. vaesenc 16(%rsi), %xmm5, %xmm5
  11619. vaesenc 32(%rsi), %xmm5, %xmm5
  11620. vaesenc 48(%rsi), %xmm5, %xmm5
  11621. vaesenc 64(%rsi), %xmm5, %xmm5
  11622. vaesenc 80(%rsi), %xmm5, %xmm5
  11623. vaesenc 96(%rsi), %xmm5, %xmm5
  11624. vaesenc 112(%rsi), %xmm5, %xmm5
  11625. vaesenc 128(%rsi), %xmm5, %xmm5
  11626. vaesenc 144(%rsi), %xmm5, %xmm5
  11627. cmpl $11, %r9d
  11628. vmovdqu 160(%rsi), %xmm0
  11629. jl L_AES_GCM_encrypt_avx2_calc_iv_1_aesenc_avx_last
  11630. vaesenc %xmm0, %xmm5, %xmm5
  11631. vaesenc 176(%rsi), %xmm5, %xmm5
  11632. cmpl $13, %r9d
  11633. vmovdqu 192(%rsi), %xmm0
  11634. jl L_AES_GCM_encrypt_avx2_calc_iv_1_aesenc_avx_last
  11635. vaesenc %xmm0, %xmm5, %xmm5
  11636. vaesenc 208(%rsi), %xmm5, %xmm5
  11637. vmovdqu 224(%rsi), %xmm0
  11638. L_AES_GCM_encrypt_avx2_calc_iv_1_aesenc_avx_last:
  11639. vaesenclast %xmm0, %xmm5, %xmm5
  11640. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm5, %xmm5
  11641. # Calc counter
  11642. # Initialization vector
  11643. cmpl $0x00, %edx
  11644. movq $0x00, %rcx
  11645. je L_AES_GCM_encrypt_avx2_calc_iv_done
  11646. cmpl $16, %edx
  11647. jl L_AES_GCM_encrypt_avx2_calc_iv_lt16
  11648. andl $0xfffffff0, %edx
  11649. L_AES_GCM_encrypt_avx2_calc_iv_16_loop:
  11650. vmovdqu (%rax,%rcx,1), %xmm0
  11651. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  11652. vpxor %xmm0, %xmm4, %xmm4
  11653. # ghash_gfmul_avx
  11654. vpclmulqdq $16, %xmm4, %xmm5, %xmm2
  11655. vpclmulqdq $0x01, %xmm4, %xmm5, %xmm1
  11656. vpclmulqdq $0x00, %xmm4, %xmm5, %xmm0
  11657. vpclmulqdq $0x11, %xmm4, %xmm5, %xmm3
  11658. vpxor %xmm1, %xmm2, %xmm2
  11659. vpslldq $8, %xmm2, %xmm1
  11660. vpsrldq $8, %xmm2, %xmm2
  11661. vpxor %xmm1, %xmm0, %xmm7
  11662. vpxor %xmm2, %xmm3, %xmm4
  11663. # ghash_mid
  11664. vpsrld $31, %xmm7, %xmm0
  11665. vpsrld $31, %xmm4, %xmm1
  11666. vpslld $0x01, %xmm7, %xmm7
  11667. vpslld $0x01, %xmm4, %xmm4
  11668. vpsrldq $12, %xmm0, %xmm2
  11669. vpslldq $4, %xmm0, %xmm0
  11670. vpslldq $4, %xmm1, %xmm1
  11671. vpor %xmm2, %xmm4, %xmm4
  11672. vpor %xmm0, %xmm7, %xmm7
  11673. vpor %xmm1, %xmm4, %xmm4
  11674. # ghash_red
  11675. vmovdqu L_avx2_aes_gcm_mod2_128(%rip), %xmm2
  11676. vpclmulqdq $16, %xmm2, %xmm7, %xmm0
  11677. vpshufd $0x4e, %xmm7, %xmm1
  11678. vpxor %xmm0, %xmm1, %xmm1
  11679. vpclmulqdq $16, %xmm2, %xmm1, %xmm0
  11680. vpshufd $0x4e, %xmm1, %xmm1
  11681. vpxor %xmm0, %xmm1, %xmm1
  11682. vpxor %xmm1, %xmm4, %xmm4
  11683. addl $16, %ecx
  11684. cmpl %edx, %ecx
  11685. jl L_AES_GCM_encrypt_avx2_calc_iv_16_loop
  11686. movl %ebx, %edx
  11687. cmpl %edx, %ecx
  11688. je L_AES_GCM_encrypt_avx2_calc_iv_done
  11689. L_AES_GCM_encrypt_avx2_calc_iv_lt16:
  11690. vpxor %xmm0, %xmm0, %xmm0
  11691. xorl %ebx, %ebx
  11692. vmovdqu %xmm0, (%rsp)
  11693. L_AES_GCM_encrypt_avx2_calc_iv_loop:
  11694. movzbl (%rax,%rcx,1), %r13d
  11695. movb %r13b, (%rsp,%rbx,1)
  11696. incl %ecx
  11697. incl %ebx
  11698. cmpl %edx, %ecx
  11699. jl L_AES_GCM_encrypt_avx2_calc_iv_loop
  11700. vmovdqu (%rsp), %xmm0
  11701. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  11702. vpxor %xmm0, %xmm4, %xmm4
  11703. # ghash_gfmul_avx
  11704. vpclmulqdq $16, %xmm4, %xmm5, %xmm2
  11705. vpclmulqdq $0x01, %xmm4, %xmm5, %xmm1
  11706. vpclmulqdq $0x00, %xmm4, %xmm5, %xmm0
  11707. vpclmulqdq $0x11, %xmm4, %xmm5, %xmm3
  11708. vpxor %xmm1, %xmm2, %xmm2
  11709. vpslldq $8, %xmm2, %xmm1
  11710. vpsrldq $8, %xmm2, %xmm2
  11711. vpxor %xmm1, %xmm0, %xmm7
  11712. vpxor %xmm2, %xmm3, %xmm4
  11713. # ghash_mid
  11714. vpsrld $31, %xmm7, %xmm0
  11715. vpsrld $31, %xmm4, %xmm1
  11716. vpslld $0x01, %xmm7, %xmm7
  11717. vpslld $0x01, %xmm4, %xmm4
  11718. vpsrldq $12, %xmm0, %xmm2
  11719. vpslldq $4, %xmm0, %xmm0
  11720. vpslldq $4, %xmm1, %xmm1
  11721. vpor %xmm2, %xmm4, %xmm4
  11722. vpor %xmm0, %xmm7, %xmm7
  11723. vpor %xmm1, %xmm4, %xmm4
  11724. # ghash_red
  11725. vmovdqu L_avx2_aes_gcm_mod2_128(%rip), %xmm2
  11726. vpclmulqdq $16, %xmm2, %xmm7, %xmm0
  11727. vpshufd $0x4e, %xmm7, %xmm1
  11728. vpxor %xmm0, %xmm1, %xmm1
  11729. vpclmulqdq $16, %xmm2, %xmm1, %xmm0
  11730. vpshufd $0x4e, %xmm1, %xmm1
  11731. vpxor %xmm0, %xmm1, %xmm1
  11732. vpxor %xmm1, %xmm4, %xmm4
  11733. L_AES_GCM_encrypt_avx2_calc_iv_done:
  11734. # T = Encrypt counter
  11735. vpxor %xmm0, %xmm0, %xmm0
  11736. shll $3, %edx
  11737. vpinsrq $0x00, %rdx, %xmm0, %xmm0
  11738. vpxor %xmm0, %xmm4, %xmm4
  11739. # ghash_gfmul_avx
  11740. vpclmulqdq $16, %xmm4, %xmm5, %xmm2
  11741. vpclmulqdq $0x01, %xmm4, %xmm5, %xmm1
  11742. vpclmulqdq $0x00, %xmm4, %xmm5, %xmm0
  11743. vpclmulqdq $0x11, %xmm4, %xmm5, %xmm3
  11744. vpxor %xmm1, %xmm2, %xmm2
  11745. vpslldq $8, %xmm2, %xmm1
  11746. vpsrldq $8, %xmm2, %xmm2
  11747. vpxor %xmm1, %xmm0, %xmm7
  11748. vpxor %xmm2, %xmm3, %xmm4
  11749. # ghash_mid
  11750. vpsrld $31, %xmm7, %xmm0
  11751. vpsrld $31, %xmm4, %xmm1
  11752. vpslld $0x01, %xmm7, %xmm7
  11753. vpslld $0x01, %xmm4, %xmm4
  11754. vpsrldq $12, %xmm0, %xmm2
  11755. vpslldq $4, %xmm0, %xmm0
  11756. vpslldq $4, %xmm1, %xmm1
  11757. vpor %xmm2, %xmm4, %xmm4
  11758. vpor %xmm0, %xmm7, %xmm7
  11759. vpor %xmm1, %xmm4, %xmm4
  11760. # ghash_red
  11761. vmovdqu L_avx2_aes_gcm_mod2_128(%rip), %xmm2
  11762. vpclmulqdq $16, %xmm2, %xmm7, %xmm0
  11763. vpshufd $0x4e, %xmm7, %xmm1
  11764. vpxor %xmm0, %xmm1, %xmm1
  11765. vpclmulqdq $16, %xmm2, %xmm1, %xmm0
  11766. vpshufd $0x4e, %xmm1, %xmm1
  11767. vpxor %xmm0, %xmm1, %xmm1
  11768. vpxor %xmm1, %xmm4, %xmm4
  11769. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm4, %xmm4
  11770. # Encrypt counter
  11771. vmovdqu (%rsi), %xmm15
  11772. vpxor %xmm4, %xmm15, %xmm15
  11773. vaesenc 16(%rsi), %xmm15, %xmm15
  11774. vaesenc 32(%rsi), %xmm15, %xmm15
  11775. vaesenc 48(%rsi), %xmm15, %xmm15
  11776. vaesenc 64(%rsi), %xmm15, %xmm15
  11777. vaesenc 80(%rsi), %xmm15, %xmm15
  11778. vaesenc 96(%rsi), %xmm15, %xmm15
  11779. vaesenc 112(%rsi), %xmm15, %xmm15
  11780. vaesenc 128(%rsi), %xmm15, %xmm15
  11781. vaesenc 144(%rsi), %xmm15, %xmm15
  11782. cmpl $11, %r9d
  11783. vmovdqu 160(%rsi), %xmm0
  11784. jl L_AES_GCM_encrypt_avx2_calc_iv_2_aesenc_avx_last
  11785. vaesenc %xmm0, %xmm15, %xmm15
  11786. vaesenc 176(%rsi), %xmm15, %xmm15
  11787. cmpl $13, %r9d
  11788. vmovdqu 192(%rsi), %xmm0
  11789. jl L_AES_GCM_encrypt_avx2_calc_iv_2_aesenc_avx_last
  11790. vaesenc %xmm0, %xmm15, %xmm15
  11791. vaesenc 208(%rsi), %xmm15, %xmm15
  11792. vmovdqu 224(%rsi), %xmm0
  11793. L_AES_GCM_encrypt_avx2_calc_iv_2_aesenc_avx_last:
  11794. vaesenclast %xmm0, %xmm15, %xmm15
  11795. jmp L_AES_GCM_encrypt_avx2_iv_done
  11796. L_AES_GCM_encrypt_avx2_iv_12:
  11797. # # Calculate values when IV is 12 bytes
  11798. # Set counter based on IV
  11799. vmovdqu L_avx2_aes_gcm_bswap_one(%rip), %xmm4
  11800. vmovdqu (%rsi), %xmm5
  11801. vpblendd $7, (%rax), %xmm4, %xmm4
  11802. # H = Encrypt X(=0) and T = Encrypt counter
  11803. vmovdqu 16(%rsi), %xmm7
  11804. vpxor %xmm5, %xmm4, %xmm15
  11805. vaesenc %xmm7, %xmm5, %xmm5
  11806. vaesenc %xmm7, %xmm15, %xmm15
  11807. vmovdqu 32(%rsi), %xmm0
  11808. vaesenc %xmm0, %xmm5, %xmm5
  11809. vaesenc %xmm0, %xmm15, %xmm15
  11810. vmovdqu 48(%rsi), %xmm0
  11811. vaesenc %xmm0, %xmm5, %xmm5
  11812. vaesenc %xmm0, %xmm15, %xmm15
  11813. vmovdqu 64(%rsi), %xmm0
  11814. vaesenc %xmm0, %xmm5, %xmm5
  11815. vaesenc %xmm0, %xmm15, %xmm15
  11816. vmovdqu 80(%rsi), %xmm0
  11817. vaesenc %xmm0, %xmm5, %xmm5
  11818. vaesenc %xmm0, %xmm15, %xmm15
  11819. vmovdqu 96(%rsi), %xmm0
  11820. vaesenc %xmm0, %xmm5, %xmm5
  11821. vaesenc %xmm0, %xmm15, %xmm15
  11822. vmovdqu 112(%rsi), %xmm0
  11823. vaesenc %xmm0, %xmm5, %xmm5
  11824. vaesenc %xmm0, %xmm15, %xmm15
  11825. vmovdqu 128(%rsi), %xmm0
  11826. vaesenc %xmm0, %xmm5, %xmm5
  11827. vaesenc %xmm0, %xmm15, %xmm15
  11828. vmovdqu 144(%rsi), %xmm0
  11829. vaesenc %xmm0, %xmm5, %xmm5
  11830. vaesenc %xmm0, %xmm15, %xmm15
  11831. cmpl $11, %r9d
  11832. vmovdqu 160(%rsi), %xmm0
  11833. jl L_AES_GCM_encrypt_avx2_calc_iv_12_last
  11834. vaesenc %xmm0, %xmm5, %xmm5
  11835. vaesenc %xmm0, %xmm15, %xmm15
  11836. vmovdqu 176(%rsi), %xmm0
  11837. vaesenc %xmm0, %xmm5, %xmm5
  11838. vaesenc %xmm0, %xmm15, %xmm15
  11839. cmpl $13, %r9d
  11840. vmovdqu 192(%rsi), %xmm0
  11841. jl L_AES_GCM_encrypt_avx2_calc_iv_12_last
  11842. vaesenc %xmm0, %xmm5, %xmm5
  11843. vaesenc %xmm0, %xmm15, %xmm15
  11844. vmovdqu 208(%rsi), %xmm0
  11845. vaesenc %xmm0, %xmm5, %xmm5
  11846. vaesenc %xmm0, %xmm15, %xmm15
  11847. vmovdqu 224(%rsi), %xmm0
  11848. L_AES_GCM_encrypt_avx2_calc_iv_12_last:
  11849. vaesenclast %xmm0, %xmm5, %xmm5
  11850. vaesenclast %xmm0, %xmm15, %xmm15
  11851. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm5, %xmm5
  11852. L_AES_GCM_encrypt_avx2_iv_done:
  11853. # Additional authentication data
  11854. movl %r11d, %edx
  11855. cmpl $0x00, %edx
  11856. je L_AES_GCM_encrypt_avx2_calc_aad_done
  11857. xorl %ecx, %ecx
  11858. cmpl $16, %edx
  11859. jl L_AES_GCM_encrypt_avx2_calc_aad_lt16
  11860. andl $0xfffffff0, %edx
  11861. L_AES_GCM_encrypt_avx2_calc_aad_16_loop:
  11862. vmovdqu (%r12,%rcx,1), %xmm0
  11863. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  11864. vpxor %xmm0, %xmm6, %xmm6
  11865. # ghash_gfmul_avx
  11866. vpclmulqdq $16, %xmm6, %xmm5, %xmm2
  11867. vpclmulqdq $0x01, %xmm6, %xmm5, %xmm1
  11868. vpclmulqdq $0x00, %xmm6, %xmm5, %xmm0
  11869. vpclmulqdq $0x11, %xmm6, %xmm5, %xmm3
  11870. vpxor %xmm1, %xmm2, %xmm2
  11871. vpslldq $8, %xmm2, %xmm1
  11872. vpsrldq $8, %xmm2, %xmm2
  11873. vpxor %xmm1, %xmm0, %xmm7
  11874. vpxor %xmm2, %xmm3, %xmm6
  11875. # ghash_mid
  11876. vpsrld $31, %xmm7, %xmm0
  11877. vpsrld $31, %xmm6, %xmm1
  11878. vpslld $0x01, %xmm7, %xmm7
  11879. vpslld $0x01, %xmm6, %xmm6
  11880. vpsrldq $12, %xmm0, %xmm2
  11881. vpslldq $4, %xmm0, %xmm0
  11882. vpslldq $4, %xmm1, %xmm1
  11883. vpor %xmm2, %xmm6, %xmm6
  11884. vpor %xmm0, %xmm7, %xmm7
  11885. vpor %xmm1, %xmm6, %xmm6
  11886. # ghash_red
  11887. vmovdqu L_avx2_aes_gcm_mod2_128(%rip), %xmm2
  11888. vpclmulqdq $16, %xmm2, %xmm7, %xmm0
  11889. vpshufd $0x4e, %xmm7, %xmm1
  11890. vpxor %xmm0, %xmm1, %xmm1
  11891. vpclmulqdq $16, %xmm2, %xmm1, %xmm0
  11892. vpshufd $0x4e, %xmm1, %xmm1
  11893. vpxor %xmm0, %xmm1, %xmm1
  11894. vpxor %xmm1, %xmm6, %xmm6
  11895. addl $16, %ecx
  11896. cmpl %edx, %ecx
  11897. jl L_AES_GCM_encrypt_avx2_calc_aad_16_loop
  11898. movl %r11d, %edx
  11899. cmpl %edx, %ecx
  11900. je L_AES_GCM_encrypt_avx2_calc_aad_done
  11901. L_AES_GCM_encrypt_avx2_calc_aad_lt16:
  11902. vpxor %xmm0, %xmm0, %xmm0
  11903. xorl %ebx, %ebx
  11904. vmovdqu %xmm0, (%rsp)
  11905. L_AES_GCM_encrypt_avx2_calc_aad_loop:
  11906. movzbl (%r12,%rcx,1), %r13d
  11907. movb %r13b, (%rsp,%rbx,1)
  11908. incl %ecx
  11909. incl %ebx
  11910. cmpl %edx, %ecx
  11911. jl L_AES_GCM_encrypt_avx2_calc_aad_loop
  11912. vmovdqu (%rsp), %xmm0
  11913. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  11914. vpxor %xmm0, %xmm6, %xmm6
  11915. # ghash_gfmul_avx
  11916. vpclmulqdq $16, %xmm6, %xmm5, %xmm2
  11917. vpclmulqdq $0x01, %xmm6, %xmm5, %xmm1
  11918. vpclmulqdq $0x00, %xmm6, %xmm5, %xmm0
  11919. vpclmulqdq $0x11, %xmm6, %xmm5, %xmm3
  11920. vpxor %xmm1, %xmm2, %xmm2
  11921. vpslldq $8, %xmm2, %xmm1
  11922. vpsrldq $8, %xmm2, %xmm2
  11923. vpxor %xmm1, %xmm0, %xmm7
  11924. vpxor %xmm2, %xmm3, %xmm6
  11925. # ghash_mid
  11926. vpsrld $31, %xmm7, %xmm0
  11927. vpsrld $31, %xmm6, %xmm1
  11928. vpslld $0x01, %xmm7, %xmm7
  11929. vpslld $0x01, %xmm6, %xmm6
  11930. vpsrldq $12, %xmm0, %xmm2
  11931. vpslldq $4, %xmm0, %xmm0
  11932. vpslldq $4, %xmm1, %xmm1
  11933. vpor %xmm2, %xmm6, %xmm6
  11934. vpor %xmm0, %xmm7, %xmm7
  11935. vpor %xmm1, %xmm6, %xmm6
  11936. # ghash_red
  11937. vmovdqu L_avx2_aes_gcm_mod2_128(%rip), %xmm2
  11938. vpclmulqdq $16, %xmm2, %xmm7, %xmm0
  11939. vpshufd $0x4e, %xmm7, %xmm1
  11940. vpxor %xmm0, %xmm1, %xmm1
  11941. vpclmulqdq $16, %xmm2, %xmm1, %xmm0
  11942. vpshufd $0x4e, %xmm1, %xmm1
  11943. vpxor %xmm0, %xmm1, %xmm1
  11944. vpxor %xmm1, %xmm6, %xmm6
  11945. L_AES_GCM_encrypt_avx2_calc_aad_done:
  11946. # Calculate counter and H
  11947. vpsrlq $63, %xmm5, %xmm1
  11948. vpsllq $0x01, %xmm5, %xmm0
  11949. vpslldq $8, %xmm1, %xmm1
  11950. vpor %xmm1, %xmm0, %xmm0
  11951. vpshufd $0xff, %xmm5, %xmm5
  11952. vpsrad $31, %xmm5, %xmm5
  11953. vpshufb L_avx2_aes_gcm_bswap_epi64(%rip), %xmm4, %xmm4
  11954. vpand L_avx2_aes_gcm_mod2_128(%rip), %xmm5, %xmm5
  11955. vpaddd L_avx2_aes_gcm_one(%rip), %xmm4, %xmm4
  11956. vpxor %xmm0, %xmm5, %xmm5
  11957. xorl %ebx, %ebx
  11958. cmpl $0x80, %r10d
  11959. movl %r10d, %r13d
  11960. jl L_AES_GCM_encrypt_avx2_done_128
  11961. andl $0xffffff80, %r13d
  11962. vmovdqu %xmm4, 128(%rsp)
  11963. vmovdqu %xmm15, 144(%rsp)
  11964. vmovdqu L_avx2_aes_gcm_mod2_128(%rip), %xmm3
  11965. # H ^ 1 and H ^ 2
  11966. vpclmulqdq $0x00, %xmm5, %xmm5, %xmm9
  11967. vpclmulqdq $0x11, %xmm5, %xmm5, %xmm10
  11968. vpclmulqdq $16, %xmm3, %xmm9, %xmm8
  11969. vpshufd $0x4e, %xmm9, %xmm9
  11970. vpxor %xmm8, %xmm9, %xmm9
  11971. vpclmulqdq $16, %xmm3, %xmm9, %xmm8
  11972. vpshufd $0x4e, %xmm9, %xmm9
  11973. vpxor %xmm8, %xmm9, %xmm9
  11974. vpxor %xmm9, %xmm10, %xmm0
  11975. vmovdqu %xmm5, (%rsp)
  11976. vmovdqu %xmm0, 16(%rsp)
  11977. # H ^ 3 and H ^ 4
  11978. vpclmulqdq $16, %xmm5, %xmm0, %xmm11
  11979. vpclmulqdq $0x01, %xmm5, %xmm0, %xmm10
  11980. vpclmulqdq $0x00, %xmm5, %xmm0, %xmm9
  11981. vpclmulqdq $0x11, %xmm5, %xmm0, %xmm12
  11982. vpclmulqdq $0x00, %xmm0, %xmm0, %xmm13
  11983. vpclmulqdq $0x11, %xmm0, %xmm0, %xmm14
  11984. vpxor %xmm10, %xmm11, %xmm11
  11985. vpslldq $8, %xmm11, %xmm10
  11986. vpsrldq $8, %xmm11, %xmm11
  11987. vpxor %xmm9, %xmm10, %xmm10
  11988. vpclmulqdq $16, %xmm3, %xmm13, %xmm8
  11989. vpclmulqdq $16, %xmm3, %xmm10, %xmm9
  11990. vpshufd $0x4e, %xmm10, %xmm10
  11991. vpshufd $0x4e, %xmm13, %xmm13
  11992. vpxor %xmm9, %xmm10, %xmm10
  11993. vpxor %xmm8, %xmm13, %xmm13
  11994. vpclmulqdq $16, %xmm3, %xmm10, %xmm9
  11995. vpclmulqdq $16, %xmm3, %xmm13, %xmm8
  11996. vpshufd $0x4e, %xmm10, %xmm10
  11997. vpshufd $0x4e, %xmm13, %xmm13
  11998. vpxor %xmm11, %xmm12, %xmm12
  11999. vpxor %xmm8, %xmm13, %xmm13
  12000. vpxor %xmm12, %xmm10, %xmm10
  12001. vpxor %xmm14, %xmm13, %xmm2
  12002. vpxor %xmm9, %xmm10, %xmm1
  12003. vmovdqu %xmm1, 32(%rsp)
  12004. vmovdqu %xmm2, 48(%rsp)
  12005. # H ^ 5 and H ^ 6
  12006. vpclmulqdq $16, %xmm0, %xmm1, %xmm11
  12007. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm10
  12008. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm9
  12009. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm12
  12010. vpclmulqdq $0x00, %xmm1, %xmm1, %xmm13
  12011. vpclmulqdq $0x11, %xmm1, %xmm1, %xmm14
  12012. vpxor %xmm10, %xmm11, %xmm11
  12013. vpslldq $8, %xmm11, %xmm10
  12014. vpsrldq $8, %xmm11, %xmm11
  12015. vpxor %xmm9, %xmm10, %xmm10
  12016. vpclmulqdq $16, %xmm3, %xmm13, %xmm8
  12017. vpclmulqdq $16, %xmm3, %xmm10, %xmm9
  12018. vpshufd $0x4e, %xmm10, %xmm10
  12019. vpshufd $0x4e, %xmm13, %xmm13
  12020. vpxor %xmm9, %xmm10, %xmm10
  12021. vpxor %xmm8, %xmm13, %xmm13
  12022. vpclmulqdq $16, %xmm3, %xmm10, %xmm9
  12023. vpclmulqdq $16, %xmm3, %xmm13, %xmm8
  12024. vpshufd $0x4e, %xmm10, %xmm10
  12025. vpshufd $0x4e, %xmm13, %xmm13
  12026. vpxor %xmm11, %xmm12, %xmm12
  12027. vpxor %xmm8, %xmm13, %xmm13
  12028. vpxor %xmm12, %xmm10, %xmm10
  12029. vpxor %xmm14, %xmm13, %xmm0
  12030. vpxor %xmm9, %xmm10, %xmm7
  12031. vmovdqu %xmm7, 64(%rsp)
  12032. vmovdqu %xmm0, 80(%rsp)
  12033. # H ^ 7 and H ^ 8
  12034. vpclmulqdq $16, %xmm1, %xmm2, %xmm11
  12035. vpclmulqdq $0x01, %xmm1, %xmm2, %xmm10
  12036. vpclmulqdq $0x00, %xmm1, %xmm2, %xmm9
  12037. vpclmulqdq $0x11, %xmm1, %xmm2, %xmm12
  12038. vpclmulqdq $0x00, %xmm2, %xmm2, %xmm13
  12039. vpclmulqdq $0x11, %xmm2, %xmm2, %xmm14
  12040. vpxor %xmm10, %xmm11, %xmm11
  12041. vpslldq $8, %xmm11, %xmm10
  12042. vpsrldq $8, %xmm11, %xmm11
  12043. vpxor %xmm9, %xmm10, %xmm10
  12044. vpclmulqdq $16, %xmm3, %xmm13, %xmm8
  12045. vpclmulqdq $16, %xmm3, %xmm10, %xmm9
  12046. vpshufd $0x4e, %xmm10, %xmm10
  12047. vpshufd $0x4e, %xmm13, %xmm13
  12048. vpxor %xmm9, %xmm10, %xmm10
  12049. vpxor %xmm8, %xmm13, %xmm13
  12050. vpclmulqdq $16, %xmm3, %xmm10, %xmm9
  12051. vpclmulqdq $16, %xmm3, %xmm13, %xmm8
  12052. vpshufd $0x4e, %xmm10, %xmm10
  12053. vpshufd $0x4e, %xmm13, %xmm13
  12054. vpxor %xmm11, %xmm12, %xmm12
  12055. vpxor %xmm8, %xmm13, %xmm13
  12056. vpxor %xmm12, %xmm10, %xmm10
  12057. vpxor %xmm14, %xmm13, %xmm0
  12058. vpxor %xmm9, %xmm10, %xmm7
  12059. vmovdqu %xmm7, 96(%rsp)
  12060. vmovdqu %xmm0, 112(%rsp)
  12061. # First 128 bytes of input
  12062. # aesenc_128
  12063. # aesenc_ctr
  12064. vmovdqu 128(%rsp), %xmm0
  12065. vmovdqu L_avx2_aes_gcm_bswap_epi64(%rip), %xmm1
  12066. vpaddd L_avx2_aes_gcm_one(%rip), %xmm0, %xmm9
  12067. vpshufb %xmm1, %xmm0, %xmm8
  12068. vpaddd L_avx2_aes_gcm_two(%rip), %xmm0, %xmm10
  12069. vpshufb %xmm1, %xmm9, %xmm9
  12070. vpaddd L_avx2_aes_gcm_three(%rip), %xmm0, %xmm11
  12071. vpshufb %xmm1, %xmm10, %xmm10
  12072. vpaddd L_avx2_aes_gcm_four(%rip), %xmm0, %xmm12
  12073. vpshufb %xmm1, %xmm11, %xmm11
  12074. vpaddd L_avx2_aes_gcm_five(%rip), %xmm0, %xmm13
  12075. vpshufb %xmm1, %xmm12, %xmm12
  12076. vpaddd L_avx2_aes_gcm_six(%rip), %xmm0, %xmm14
  12077. vpshufb %xmm1, %xmm13, %xmm13
  12078. vpaddd L_avx2_aes_gcm_seven(%rip), %xmm0, %xmm15
  12079. vpshufb %xmm1, %xmm14, %xmm14
  12080. vpaddd L_avx2_aes_gcm_eight(%rip), %xmm0, %xmm0
  12081. vpshufb %xmm1, %xmm15, %xmm15
  12082. # aesenc_xor
  12083. vmovdqu (%rsi), %xmm7
  12084. vmovdqu %xmm0, 128(%rsp)
  12085. vpxor %xmm7, %xmm8, %xmm8
  12086. vpxor %xmm7, %xmm9, %xmm9
  12087. vpxor %xmm7, %xmm10, %xmm10
  12088. vpxor %xmm7, %xmm11, %xmm11
  12089. vpxor %xmm7, %xmm12, %xmm12
  12090. vpxor %xmm7, %xmm13, %xmm13
  12091. vpxor %xmm7, %xmm14, %xmm14
  12092. vpxor %xmm7, %xmm15, %xmm15
  12093. vmovdqu 16(%rsi), %xmm7
  12094. vaesenc %xmm7, %xmm8, %xmm8
  12095. vaesenc %xmm7, %xmm9, %xmm9
  12096. vaesenc %xmm7, %xmm10, %xmm10
  12097. vaesenc %xmm7, %xmm11, %xmm11
  12098. vaesenc %xmm7, %xmm12, %xmm12
  12099. vaesenc %xmm7, %xmm13, %xmm13
  12100. vaesenc %xmm7, %xmm14, %xmm14
  12101. vaesenc %xmm7, %xmm15, %xmm15
  12102. vmovdqu 32(%rsi), %xmm7
  12103. vaesenc %xmm7, %xmm8, %xmm8
  12104. vaesenc %xmm7, %xmm9, %xmm9
  12105. vaesenc %xmm7, %xmm10, %xmm10
  12106. vaesenc %xmm7, %xmm11, %xmm11
  12107. vaesenc %xmm7, %xmm12, %xmm12
  12108. vaesenc %xmm7, %xmm13, %xmm13
  12109. vaesenc %xmm7, %xmm14, %xmm14
  12110. vaesenc %xmm7, %xmm15, %xmm15
  12111. vmovdqu 48(%rsi), %xmm7
  12112. vaesenc %xmm7, %xmm8, %xmm8
  12113. vaesenc %xmm7, %xmm9, %xmm9
  12114. vaesenc %xmm7, %xmm10, %xmm10
  12115. vaesenc %xmm7, %xmm11, %xmm11
  12116. vaesenc %xmm7, %xmm12, %xmm12
  12117. vaesenc %xmm7, %xmm13, %xmm13
  12118. vaesenc %xmm7, %xmm14, %xmm14
  12119. vaesenc %xmm7, %xmm15, %xmm15
  12120. vmovdqu 64(%rsi), %xmm7
  12121. vaesenc %xmm7, %xmm8, %xmm8
  12122. vaesenc %xmm7, %xmm9, %xmm9
  12123. vaesenc %xmm7, %xmm10, %xmm10
  12124. vaesenc %xmm7, %xmm11, %xmm11
  12125. vaesenc %xmm7, %xmm12, %xmm12
  12126. vaesenc %xmm7, %xmm13, %xmm13
  12127. vaesenc %xmm7, %xmm14, %xmm14
  12128. vaesenc %xmm7, %xmm15, %xmm15
  12129. vmovdqu 80(%rsi), %xmm7
  12130. vaesenc %xmm7, %xmm8, %xmm8
  12131. vaesenc %xmm7, %xmm9, %xmm9
  12132. vaesenc %xmm7, %xmm10, %xmm10
  12133. vaesenc %xmm7, %xmm11, %xmm11
  12134. vaesenc %xmm7, %xmm12, %xmm12
  12135. vaesenc %xmm7, %xmm13, %xmm13
  12136. vaesenc %xmm7, %xmm14, %xmm14
  12137. vaesenc %xmm7, %xmm15, %xmm15
  12138. vmovdqu 96(%rsi), %xmm7
  12139. vaesenc %xmm7, %xmm8, %xmm8
  12140. vaesenc %xmm7, %xmm9, %xmm9
  12141. vaesenc %xmm7, %xmm10, %xmm10
  12142. vaesenc %xmm7, %xmm11, %xmm11
  12143. vaesenc %xmm7, %xmm12, %xmm12
  12144. vaesenc %xmm7, %xmm13, %xmm13
  12145. vaesenc %xmm7, %xmm14, %xmm14
  12146. vaesenc %xmm7, %xmm15, %xmm15
  12147. vmovdqu 112(%rsi), %xmm7
  12148. vaesenc %xmm7, %xmm8, %xmm8
  12149. vaesenc %xmm7, %xmm9, %xmm9
  12150. vaesenc %xmm7, %xmm10, %xmm10
  12151. vaesenc %xmm7, %xmm11, %xmm11
  12152. vaesenc %xmm7, %xmm12, %xmm12
  12153. vaesenc %xmm7, %xmm13, %xmm13
  12154. vaesenc %xmm7, %xmm14, %xmm14
  12155. vaesenc %xmm7, %xmm15, %xmm15
  12156. vmovdqu 128(%rsi), %xmm7
  12157. vaesenc %xmm7, %xmm8, %xmm8
  12158. vaesenc %xmm7, %xmm9, %xmm9
  12159. vaesenc %xmm7, %xmm10, %xmm10
  12160. vaesenc %xmm7, %xmm11, %xmm11
  12161. vaesenc %xmm7, %xmm12, %xmm12
  12162. vaesenc %xmm7, %xmm13, %xmm13
  12163. vaesenc %xmm7, %xmm14, %xmm14
  12164. vaesenc %xmm7, %xmm15, %xmm15
  12165. vmovdqu 144(%rsi), %xmm7
  12166. vaesenc %xmm7, %xmm8, %xmm8
  12167. vaesenc %xmm7, %xmm9, %xmm9
  12168. vaesenc %xmm7, %xmm10, %xmm10
  12169. vaesenc %xmm7, %xmm11, %xmm11
  12170. vaesenc %xmm7, %xmm12, %xmm12
  12171. vaesenc %xmm7, %xmm13, %xmm13
  12172. vaesenc %xmm7, %xmm14, %xmm14
  12173. vaesenc %xmm7, %xmm15, %xmm15
  12174. cmpl $11, %r9d
  12175. vmovdqu 160(%rsi), %xmm7
  12176. jl L_AES_GCM_encrypt_avx2_aesenc_128_enc_done
  12177. vaesenc %xmm7, %xmm8, %xmm8
  12178. vaesenc %xmm7, %xmm9, %xmm9
  12179. vaesenc %xmm7, %xmm10, %xmm10
  12180. vaesenc %xmm7, %xmm11, %xmm11
  12181. vaesenc %xmm7, %xmm12, %xmm12
  12182. vaesenc %xmm7, %xmm13, %xmm13
  12183. vaesenc %xmm7, %xmm14, %xmm14
  12184. vaesenc %xmm7, %xmm15, %xmm15
  12185. vmovdqu 176(%rsi), %xmm7
  12186. vaesenc %xmm7, %xmm8, %xmm8
  12187. vaesenc %xmm7, %xmm9, %xmm9
  12188. vaesenc %xmm7, %xmm10, %xmm10
  12189. vaesenc %xmm7, %xmm11, %xmm11
  12190. vaesenc %xmm7, %xmm12, %xmm12
  12191. vaesenc %xmm7, %xmm13, %xmm13
  12192. vaesenc %xmm7, %xmm14, %xmm14
  12193. vaesenc %xmm7, %xmm15, %xmm15
  12194. cmpl $13, %r9d
  12195. vmovdqu 192(%rsi), %xmm7
  12196. jl L_AES_GCM_encrypt_avx2_aesenc_128_enc_done
  12197. vaesenc %xmm7, %xmm8, %xmm8
  12198. vaesenc %xmm7, %xmm9, %xmm9
  12199. vaesenc %xmm7, %xmm10, %xmm10
  12200. vaesenc %xmm7, %xmm11, %xmm11
  12201. vaesenc %xmm7, %xmm12, %xmm12
  12202. vaesenc %xmm7, %xmm13, %xmm13
  12203. vaesenc %xmm7, %xmm14, %xmm14
  12204. vaesenc %xmm7, %xmm15, %xmm15
  12205. vmovdqu 208(%rsi), %xmm7
  12206. vaesenc %xmm7, %xmm8, %xmm8
  12207. vaesenc %xmm7, %xmm9, %xmm9
  12208. vaesenc %xmm7, %xmm10, %xmm10
  12209. vaesenc %xmm7, %xmm11, %xmm11
  12210. vaesenc %xmm7, %xmm12, %xmm12
  12211. vaesenc %xmm7, %xmm13, %xmm13
  12212. vaesenc %xmm7, %xmm14, %xmm14
  12213. vaesenc %xmm7, %xmm15, %xmm15
  12214. vmovdqu 224(%rsi), %xmm7
  12215. L_AES_GCM_encrypt_avx2_aesenc_128_enc_done:
  12216. # aesenc_last
  12217. vaesenclast %xmm7, %xmm8, %xmm8
  12218. vaesenclast %xmm7, %xmm9, %xmm9
  12219. vaesenclast %xmm7, %xmm10, %xmm10
  12220. vaesenclast %xmm7, %xmm11, %xmm11
  12221. vmovdqu (%rdi), %xmm0
  12222. vmovdqu 16(%rdi), %xmm1
  12223. vmovdqu 32(%rdi), %xmm2
  12224. vmovdqu 48(%rdi), %xmm3
  12225. vpxor %xmm0, %xmm8, %xmm8
  12226. vpxor %xmm1, %xmm9, %xmm9
  12227. vpxor %xmm2, %xmm10, %xmm10
  12228. vpxor %xmm3, %xmm11, %xmm11
  12229. vmovdqu %xmm8, (%r8)
  12230. vmovdqu %xmm9, 16(%r8)
  12231. vmovdqu %xmm10, 32(%r8)
  12232. vmovdqu %xmm11, 48(%r8)
  12233. vaesenclast %xmm7, %xmm12, %xmm12
  12234. vaesenclast %xmm7, %xmm13, %xmm13
  12235. vaesenclast %xmm7, %xmm14, %xmm14
  12236. vaesenclast %xmm7, %xmm15, %xmm15
  12237. vmovdqu 64(%rdi), %xmm0
  12238. vmovdqu 80(%rdi), %xmm1
  12239. vmovdqu 96(%rdi), %xmm2
  12240. vmovdqu 112(%rdi), %xmm3
  12241. vpxor %xmm0, %xmm12, %xmm12
  12242. vpxor %xmm1, %xmm13, %xmm13
  12243. vpxor %xmm2, %xmm14, %xmm14
  12244. vpxor %xmm3, %xmm15, %xmm15
  12245. vmovdqu %xmm12, 64(%r8)
  12246. vmovdqu %xmm13, 80(%r8)
  12247. vmovdqu %xmm14, 96(%r8)
  12248. vmovdqu %xmm15, 112(%r8)
  12249. cmpl $0x80, %r13d
  12250. movl $0x80, %ebx
  12251. jle L_AES_GCM_encrypt_avx2_end_128
  12252. # More 128 bytes of input
  12253. L_AES_GCM_encrypt_avx2_ghash_128:
  12254. # aesenc_128_ghash
  12255. leaq (%rdi,%rbx,1), %rcx
  12256. leaq (%r8,%rbx,1), %rdx
  12257. # aesenc_ctr
  12258. vmovdqu 128(%rsp), %xmm0
  12259. vmovdqu L_avx2_aes_gcm_bswap_epi64(%rip), %xmm1
  12260. vpaddd L_avx2_aes_gcm_one(%rip), %xmm0, %xmm9
  12261. vpshufb %xmm1, %xmm0, %xmm8
  12262. vpaddd L_avx2_aes_gcm_two(%rip), %xmm0, %xmm10
  12263. vpshufb %xmm1, %xmm9, %xmm9
  12264. vpaddd L_avx2_aes_gcm_three(%rip), %xmm0, %xmm11
  12265. vpshufb %xmm1, %xmm10, %xmm10
  12266. vpaddd L_avx2_aes_gcm_four(%rip), %xmm0, %xmm12
  12267. vpshufb %xmm1, %xmm11, %xmm11
  12268. vpaddd L_avx2_aes_gcm_five(%rip), %xmm0, %xmm13
  12269. vpshufb %xmm1, %xmm12, %xmm12
  12270. vpaddd L_avx2_aes_gcm_six(%rip), %xmm0, %xmm14
  12271. vpshufb %xmm1, %xmm13, %xmm13
  12272. vpaddd L_avx2_aes_gcm_seven(%rip), %xmm0, %xmm15
  12273. vpshufb %xmm1, %xmm14, %xmm14
  12274. vpaddd L_avx2_aes_gcm_eight(%rip), %xmm0, %xmm0
  12275. vpshufb %xmm1, %xmm15, %xmm15
  12276. # aesenc_xor
  12277. vmovdqu (%rsi), %xmm7
  12278. vmovdqu %xmm0, 128(%rsp)
  12279. vpxor %xmm7, %xmm8, %xmm8
  12280. vpxor %xmm7, %xmm9, %xmm9
  12281. vpxor %xmm7, %xmm10, %xmm10
  12282. vpxor %xmm7, %xmm11, %xmm11
  12283. vpxor %xmm7, %xmm12, %xmm12
  12284. vpxor %xmm7, %xmm13, %xmm13
  12285. vpxor %xmm7, %xmm14, %xmm14
  12286. vpxor %xmm7, %xmm15, %xmm15
  12287. # aesenc_pclmul_1
  12288. vmovdqu -128(%rdx), %xmm1
  12289. vmovdqu 16(%rsi), %xmm0
  12290. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
  12291. vmovdqu 112(%rsp), %xmm2
  12292. vpxor %xmm6, %xmm1, %xmm1
  12293. vpclmulqdq $16, %xmm2, %xmm1, %xmm5
  12294. vpclmulqdq $0x01, %xmm2, %xmm1, %xmm3
  12295. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm6
  12296. vpclmulqdq $0x11, %xmm2, %xmm1, %xmm7
  12297. vaesenc %xmm0, %xmm8, %xmm8
  12298. vaesenc %xmm0, %xmm9, %xmm9
  12299. vaesenc %xmm0, %xmm10, %xmm10
  12300. vaesenc %xmm0, %xmm11, %xmm11
  12301. vaesenc %xmm0, %xmm12, %xmm12
  12302. vaesenc %xmm0, %xmm13, %xmm13
  12303. vaesenc %xmm0, %xmm14, %xmm14
  12304. vaesenc %xmm0, %xmm15, %xmm15
  12305. # aesenc_pclmul_2
  12306. vmovdqu -112(%rdx), %xmm1
  12307. vmovdqu 96(%rsp), %xmm0
  12308. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
  12309. vpxor %xmm3, %xmm5, %xmm5
  12310. vpclmulqdq $16, %xmm0, %xmm1, %xmm2
  12311. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
  12312. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
  12313. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
  12314. vmovdqu 32(%rsi), %xmm0
  12315. vpxor %xmm1, %xmm7, %xmm7
  12316. vaesenc %xmm0, %xmm8, %xmm8
  12317. vaesenc %xmm0, %xmm9, %xmm9
  12318. vaesenc %xmm0, %xmm10, %xmm10
  12319. vaesenc %xmm0, %xmm11, %xmm11
  12320. vaesenc %xmm0, %xmm12, %xmm12
  12321. vaesenc %xmm0, %xmm13, %xmm13
  12322. vaesenc %xmm0, %xmm14, %xmm14
  12323. vaesenc %xmm0, %xmm15, %xmm15
  12324. # aesenc_pclmul_n
  12325. vmovdqu -96(%rdx), %xmm1
  12326. vmovdqu 80(%rsp), %xmm0
  12327. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
  12328. vpxor %xmm2, %xmm5, %xmm5
  12329. vpclmulqdq $16, %xmm0, %xmm1, %xmm2
  12330. vpxor %xmm3, %xmm5, %xmm5
  12331. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
  12332. vpxor %xmm4, %xmm6, %xmm6
  12333. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
  12334. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
  12335. vmovdqu 48(%rsi), %xmm0
  12336. vpxor %xmm1, %xmm7, %xmm7
  12337. vaesenc %xmm0, %xmm8, %xmm8
  12338. vaesenc %xmm0, %xmm9, %xmm9
  12339. vaesenc %xmm0, %xmm10, %xmm10
  12340. vaesenc %xmm0, %xmm11, %xmm11
  12341. vaesenc %xmm0, %xmm12, %xmm12
  12342. vaesenc %xmm0, %xmm13, %xmm13
  12343. vaesenc %xmm0, %xmm14, %xmm14
  12344. vaesenc %xmm0, %xmm15, %xmm15
  12345. # aesenc_pclmul_n
  12346. vmovdqu -80(%rdx), %xmm1
  12347. vmovdqu 64(%rsp), %xmm0
  12348. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
  12349. vpxor %xmm2, %xmm5, %xmm5
  12350. vpclmulqdq $16, %xmm0, %xmm1, %xmm2
  12351. vpxor %xmm3, %xmm5, %xmm5
  12352. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
  12353. vpxor %xmm4, %xmm6, %xmm6
  12354. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
  12355. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
  12356. vmovdqu 64(%rsi), %xmm0
  12357. vpxor %xmm1, %xmm7, %xmm7
  12358. vaesenc %xmm0, %xmm8, %xmm8
  12359. vaesenc %xmm0, %xmm9, %xmm9
  12360. vaesenc %xmm0, %xmm10, %xmm10
  12361. vaesenc %xmm0, %xmm11, %xmm11
  12362. vaesenc %xmm0, %xmm12, %xmm12
  12363. vaesenc %xmm0, %xmm13, %xmm13
  12364. vaesenc %xmm0, %xmm14, %xmm14
  12365. vaesenc %xmm0, %xmm15, %xmm15
  12366. # aesenc_pclmul_n
  12367. vmovdqu -64(%rdx), %xmm1
  12368. vmovdqu 48(%rsp), %xmm0
  12369. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
  12370. vpxor %xmm2, %xmm5, %xmm5
  12371. vpclmulqdq $16, %xmm0, %xmm1, %xmm2
  12372. vpxor %xmm3, %xmm5, %xmm5
  12373. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
  12374. vpxor %xmm4, %xmm6, %xmm6
  12375. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
  12376. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
  12377. vmovdqu 80(%rsi), %xmm0
  12378. vpxor %xmm1, %xmm7, %xmm7
  12379. vaesenc %xmm0, %xmm8, %xmm8
  12380. vaesenc %xmm0, %xmm9, %xmm9
  12381. vaesenc %xmm0, %xmm10, %xmm10
  12382. vaesenc %xmm0, %xmm11, %xmm11
  12383. vaesenc %xmm0, %xmm12, %xmm12
  12384. vaesenc %xmm0, %xmm13, %xmm13
  12385. vaesenc %xmm0, %xmm14, %xmm14
  12386. vaesenc %xmm0, %xmm15, %xmm15
  12387. # aesenc_pclmul_n
  12388. vmovdqu -48(%rdx), %xmm1
  12389. vmovdqu 32(%rsp), %xmm0
  12390. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
  12391. vpxor %xmm2, %xmm5, %xmm5
  12392. vpclmulqdq $16, %xmm0, %xmm1, %xmm2
  12393. vpxor %xmm3, %xmm5, %xmm5
  12394. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
  12395. vpxor %xmm4, %xmm6, %xmm6
  12396. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
  12397. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
  12398. vmovdqu 96(%rsi), %xmm0
  12399. vpxor %xmm1, %xmm7, %xmm7
  12400. vaesenc %xmm0, %xmm8, %xmm8
  12401. vaesenc %xmm0, %xmm9, %xmm9
  12402. vaesenc %xmm0, %xmm10, %xmm10
  12403. vaesenc %xmm0, %xmm11, %xmm11
  12404. vaesenc %xmm0, %xmm12, %xmm12
  12405. vaesenc %xmm0, %xmm13, %xmm13
  12406. vaesenc %xmm0, %xmm14, %xmm14
  12407. vaesenc %xmm0, %xmm15, %xmm15
  12408. # aesenc_pclmul_n
  12409. vmovdqu -32(%rdx), %xmm1
  12410. vmovdqu 16(%rsp), %xmm0
  12411. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
  12412. vpxor %xmm2, %xmm5, %xmm5
  12413. vpclmulqdq $16, %xmm0, %xmm1, %xmm2
  12414. vpxor %xmm3, %xmm5, %xmm5
  12415. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
  12416. vpxor %xmm4, %xmm6, %xmm6
  12417. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
  12418. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
  12419. vmovdqu 112(%rsi), %xmm0
  12420. vpxor %xmm1, %xmm7, %xmm7
  12421. vaesenc %xmm0, %xmm8, %xmm8
  12422. vaesenc %xmm0, %xmm9, %xmm9
  12423. vaesenc %xmm0, %xmm10, %xmm10
  12424. vaesenc %xmm0, %xmm11, %xmm11
  12425. vaesenc %xmm0, %xmm12, %xmm12
  12426. vaesenc %xmm0, %xmm13, %xmm13
  12427. vaesenc %xmm0, %xmm14, %xmm14
  12428. vaesenc %xmm0, %xmm15, %xmm15
  12429. # aesenc_pclmul_n
  12430. vmovdqu -16(%rdx), %xmm1
  12431. vmovdqu (%rsp), %xmm0
  12432. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
  12433. vpxor %xmm2, %xmm5, %xmm5
  12434. vpclmulqdq $16, %xmm0, %xmm1, %xmm2
  12435. vpxor %xmm3, %xmm5, %xmm5
  12436. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
  12437. vpxor %xmm4, %xmm6, %xmm6
  12438. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
  12439. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
  12440. vmovdqu 128(%rsi), %xmm0
  12441. vpxor %xmm1, %xmm7, %xmm7
  12442. vaesenc %xmm0, %xmm8, %xmm8
  12443. vaesenc %xmm0, %xmm9, %xmm9
  12444. vaesenc %xmm0, %xmm10, %xmm10
  12445. vaesenc %xmm0, %xmm11, %xmm11
  12446. vaesenc %xmm0, %xmm12, %xmm12
  12447. vaesenc %xmm0, %xmm13, %xmm13
  12448. vaesenc %xmm0, %xmm14, %xmm14
  12449. vaesenc %xmm0, %xmm15, %xmm15
  12450. # aesenc_pclmul_l
  12451. vpxor %xmm2, %xmm5, %xmm5
  12452. vpxor %xmm4, %xmm6, %xmm6
  12453. vpxor %xmm3, %xmm5, %xmm5
  12454. vpslldq $8, %xmm5, %xmm1
  12455. vpsrldq $8, %xmm5, %xmm5
  12456. vmovdqu 144(%rsi), %xmm4
  12457. vmovdqu L_avx2_aes_gcm_mod2_128(%rip), %xmm0
  12458. vaesenc %xmm4, %xmm8, %xmm8
  12459. vpxor %xmm1, %xmm6, %xmm6
  12460. vpxor %xmm5, %xmm7, %xmm7
  12461. vpclmulqdq $16, %xmm0, %xmm6, %xmm3
  12462. vaesenc %xmm4, %xmm9, %xmm9
  12463. vaesenc %xmm4, %xmm10, %xmm10
  12464. vaesenc %xmm4, %xmm11, %xmm11
  12465. vpshufd $0x4e, %xmm6, %xmm6
  12466. vpxor %xmm3, %xmm6, %xmm6
  12467. vpclmulqdq $16, %xmm0, %xmm6, %xmm3
  12468. vaesenc %xmm4, %xmm12, %xmm12
  12469. vaesenc %xmm4, %xmm13, %xmm13
  12470. vaesenc %xmm4, %xmm14, %xmm14
  12471. vpshufd $0x4e, %xmm6, %xmm6
  12472. vpxor %xmm3, %xmm6, %xmm6
  12473. vpxor %xmm7, %xmm6, %xmm6
  12474. vaesenc %xmm4, %xmm15, %xmm15
  12475. cmpl $11, %r9d
  12476. vmovdqu 160(%rsi), %xmm7
  12477. jl L_AES_GCM_encrypt_avx2_aesenc_128_ghash_avx_done
  12478. vaesenc %xmm7, %xmm8, %xmm8
  12479. vaesenc %xmm7, %xmm9, %xmm9
  12480. vaesenc %xmm7, %xmm10, %xmm10
  12481. vaesenc %xmm7, %xmm11, %xmm11
  12482. vaesenc %xmm7, %xmm12, %xmm12
  12483. vaesenc %xmm7, %xmm13, %xmm13
  12484. vaesenc %xmm7, %xmm14, %xmm14
  12485. vaesenc %xmm7, %xmm15, %xmm15
  12486. vmovdqu 176(%rsi), %xmm7
  12487. vaesenc %xmm7, %xmm8, %xmm8
  12488. vaesenc %xmm7, %xmm9, %xmm9
  12489. vaesenc %xmm7, %xmm10, %xmm10
  12490. vaesenc %xmm7, %xmm11, %xmm11
  12491. vaesenc %xmm7, %xmm12, %xmm12
  12492. vaesenc %xmm7, %xmm13, %xmm13
  12493. vaesenc %xmm7, %xmm14, %xmm14
  12494. vaesenc %xmm7, %xmm15, %xmm15
  12495. cmpl $13, %r9d
  12496. vmovdqu 192(%rsi), %xmm7
  12497. jl L_AES_GCM_encrypt_avx2_aesenc_128_ghash_avx_done
  12498. vaesenc %xmm7, %xmm8, %xmm8
  12499. vaesenc %xmm7, %xmm9, %xmm9
  12500. vaesenc %xmm7, %xmm10, %xmm10
  12501. vaesenc %xmm7, %xmm11, %xmm11
  12502. vaesenc %xmm7, %xmm12, %xmm12
  12503. vaesenc %xmm7, %xmm13, %xmm13
  12504. vaesenc %xmm7, %xmm14, %xmm14
  12505. vaesenc %xmm7, %xmm15, %xmm15
  12506. vmovdqu 208(%rsi), %xmm7
  12507. vaesenc %xmm7, %xmm8, %xmm8
  12508. vaesenc %xmm7, %xmm9, %xmm9
  12509. vaesenc %xmm7, %xmm10, %xmm10
  12510. vaesenc %xmm7, %xmm11, %xmm11
  12511. vaesenc %xmm7, %xmm12, %xmm12
  12512. vaesenc %xmm7, %xmm13, %xmm13
  12513. vaesenc %xmm7, %xmm14, %xmm14
  12514. vaesenc %xmm7, %xmm15, %xmm15
  12515. vmovdqu 224(%rsi), %xmm7
  12516. L_AES_GCM_encrypt_avx2_aesenc_128_ghash_avx_done:
  12517. # aesenc_last
  12518. vaesenclast %xmm7, %xmm8, %xmm8
  12519. vaesenclast %xmm7, %xmm9, %xmm9
  12520. vaesenclast %xmm7, %xmm10, %xmm10
  12521. vaesenclast %xmm7, %xmm11, %xmm11
  12522. vmovdqu (%rcx), %xmm0
  12523. vmovdqu 16(%rcx), %xmm1
  12524. vmovdqu 32(%rcx), %xmm2
  12525. vmovdqu 48(%rcx), %xmm3
  12526. vpxor %xmm0, %xmm8, %xmm8
  12527. vpxor %xmm1, %xmm9, %xmm9
  12528. vpxor %xmm2, %xmm10, %xmm10
  12529. vpxor %xmm3, %xmm11, %xmm11
  12530. vmovdqu %xmm8, (%rdx)
  12531. vmovdqu %xmm9, 16(%rdx)
  12532. vmovdqu %xmm10, 32(%rdx)
  12533. vmovdqu %xmm11, 48(%rdx)
  12534. vaesenclast %xmm7, %xmm12, %xmm12
  12535. vaesenclast %xmm7, %xmm13, %xmm13
  12536. vaesenclast %xmm7, %xmm14, %xmm14
  12537. vaesenclast %xmm7, %xmm15, %xmm15
  12538. vmovdqu 64(%rcx), %xmm0
  12539. vmovdqu 80(%rcx), %xmm1
  12540. vmovdqu 96(%rcx), %xmm2
  12541. vmovdqu 112(%rcx), %xmm3
  12542. vpxor %xmm0, %xmm12, %xmm12
  12543. vpxor %xmm1, %xmm13, %xmm13
  12544. vpxor %xmm2, %xmm14, %xmm14
  12545. vpxor %xmm3, %xmm15, %xmm15
  12546. vmovdqu %xmm12, 64(%rdx)
  12547. vmovdqu %xmm13, 80(%rdx)
  12548. vmovdqu %xmm14, 96(%rdx)
  12549. vmovdqu %xmm15, 112(%rdx)
  12550. # aesenc_128_ghash - end
  12551. addl $0x80, %ebx
  12552. cmpl %r13d, %ebx
  12553. jl L_AES_GCM_encrypt_avx2_ghash_128
  12554. L_AES_GCM_encrypt_avx2_end_128:
  12555. vmovdqu L_avx2_aes_gcm_bswap_mask(%rip), %xmm4
  12556. vpshufb %xmm4, %xmm8, %xmm8
  12557. vpshufb %xmm4, %xmm9, %xmm9
  12558. vpshufb %xmm4, %xmm10, %xmm10
  12559. vpshufb %xmm4, %xmm11, %xmm11
  12560. vpshufb %xmm4, %xmm12, %xmm12
  12561. vpshufb %xmm4, %xmm13, %xmm13
  12562. vpshufb %xmm4, %xmm14, %xmm14
  12563. vpshufb %xmm4, %xmm15, %xmm15
  12564. vpxor %xmm6, %xmm8, %xmm8
  12565. vmovdqu (%rsp), %xmm7
  12566. vpclmulqdq $16, %xmm15, %xmm7, %xmm5
  12567. vpclmulqdq $0x01, %xmm15, %xmm7, %xmm1
  12568. vpclmulqdq $0x00, %xmm15, %xmm7, %xmm4
  12569. vpclmulqdq $0x11, %xmm15, %xmm7, %xmm6
  12570. vpxor %xmm1, %xmm5, %xmm5
  12571. vmovdqu 16(%rsp), %xmm7
  12572. vpclmulqdq $16, %xmm14, %xmm7, %xmm2
  12573. vpclmulqdq $0x01, %xmm14, %xmm7, %xmm1
  12574. vpclmulqdq $0x00, %xmm14, %xmm7, %xmm0
  12575. vpclmulqdq $0x11, %xmm14, %xmm7, %xmm3
  12576. vpxor %xmm1, %xmm2, %xmm2
  12577. vpxor %xmm3, %xmm6, %xmm6
  12578. vpxor %xmm2, %xmm5, %xmm5
  12579. vpxor %xmm0, %xmm4, %xmm4
  12580. vmovdqu 32(%rsp), %xmm15
  12581. vmovdqu 48(%rsp), %xmm7
  12582. vpclmulqdq $16, %xmm13, %xmm15, %xmm2
  12583. vpclmulqdq $0x01, %xmm13, %xmm15, %xmm1
  12584. vpclmulqdq $0x00, %xmm13, %xmm15, %xmm0
  12585. vpclmulqdq $0x11, %xmm13, %xmm15, %xmm3
  12586. vpxor %xmm1, %xmm2, %xmm2
  12587. vpxor %xmm3, %xmm6, %xmm6
  12588. vpxor %xmm2, %xmm5, %xmm5
  12589. vpxor %xmm0, %xmm4, %xmm4
  12590. vpclmulqdq $16, %xmm12, %xmm7, %xmm2
  12591. vpclmulqdq $0x01, %xmm12, %xmm7, %xmm1
  12592. vpclmulqdq $0x00, %xmm12, %xmm7, %xmm0
  12593. vpclmulqdq $0x11, %xmm12, %xmm7, %xmm3
  12594. vpxor %xmm1, %xmm2, %xmm2
  12595. vpxor %xmm3, %xmm6, %xmm6
  12596. vpxor %xmm2, %xmm5, %xmm5
  12597. vpxor %xmm0, %xmm4, %xmm4
  12598. vmovdqu 64(%rsp), %xmm15
  12599. vmovdqu 80(%rsp), %xmm7
  12600. vpclmulqdq $16, %xmm11, %xmm15, %xmm2
  12601. vpclmulqdq $0x01, %xmm11, %xmm15, %xmm1
  12602. vpclmulqdq $0x00, %xmm11, %xmm15, %xmm0
  12603. vpclmulqdq $0x11, %xmm11, %xmm15, %xmm3
  12604. vpxor %xmm1, %xmm2, %xmm2
  12605. vpxor %xmm3, %xmm6, %xmm6
  12606. vpxor %xmm2, %xmm5, %xmm5
  12607. vpxor %xmm0, %xmm4, %xmm4
  12608. vpclmulqdq $16, %xmm10, %xmm7, %xmm2
  12609. vpclmulqdq $0x01, %xmm10, %xmm7, %xmm1
  12610. vpclmulqdq $0x00, %xmm10, %xmm7, %xmm0
  12611. vpclmulqdq $0x11, %xmm10, %xmm7, %xmm3
  12612. vpxor %xmm1, %xmm2, %xmm2
  12613. vpxor %xmm3, %xmm6, %xmm6
  12614. vpxor %xmm2, %xmm5, %xmm5
  12615. vpxor %xmm0, %xmm4, %xmm4
  12616. vmovdqu 96(%rsp), %xmm15
  12617. vmovdqu 112(%rsp), %xmm7
  12618. vpclmulqdq $16, %xmm9, %xmm15, %xmm2
  12619. vpclmulqdq $0x01, %xmm9, %xmm15, %xmm1
  12620. vpclmulqdq $0x00, %xmm9, %xmm15, %xmm0
  12621. vpclmulqdq $0x11, %xmm9, %xmm15, %xmm3
  12622. vpxor %xmm1, %xmm2, %xmm2
  12623. vpxor %xmm3, %xmm6, %xmm6
  12624. vpxor %xmm2, %xmm5, %xmm5
  12625. vpxor %xmm0, %xmm4, %xmm4
  12626. vpclmulqdq $16, %xmm8, %xmm7, %xmm2
  12627. vpclmulqdq $0x01, %xmm8, %xmm7, %xmm1
  12628. vpclmulqdq $0x00, %xmm8, %xmm7, %xmm0
  12629. vpclmulqdq $0x11, %xmm8, %xmm7, %xmm3
  12630. vpxor %xmm1, %xmm2, %xmm2
  12631. vpxor %xmm3, %xmm6, %xmm6
  12632. vpxor %xmm2, %xmm5, %xmm5
  12633. vpxor %xmm0, %xmm4, %xmm4
  12634. vpslldq $8, %xmm5, %xmm7
  12635. vpsrldq $8, %xmm5, %xmm5
  12636. vpxor %xmm7, %xmm4, %xmm4
  12637. vpxor %xmm5, %xmm6, %xmm6
  12638. # ghash_red
  12639. vmovdqu L_avx2_aes_gcm_mod2_128(%rip), %xmm2
  12640. vpclmulqdq $16, %xmm2, %xmm4, %xmm0
  12641. vpshufd $0x4e, %xmm4, %xmm1
  12642. vpxor %xmm0, %xmm1, %xmm1
  12643. vpclmulqdq $16, %xmm2, %xmm1, %xmm0
  12644. vpshufd $0x4e, %xmm1, %xmm1
  12645. vpxor %xmm0, %xmm1, %xmm1
  12646. vpxor %xmm1, %xmm6, %xmm6
  12647. vmovdqu (%rsp), %xmm5
  12648. vmovdqu 128(%rsp), %xmm4
  12649. vmovdqu 144(%rsp), %xmm15
  12650. L_AES_GCM_encrypt_avx2_done_128:
  12651. cmpl %r10d, %ebx
  12652. je L_AES_GCM_encrypt_avx2_done_enc
  12653. movl %r10d, %r13d
  12654. andl $0xfffffff0, %r13d
  12655. cmpl %r13d, %ebx
  12656. jge L_AES_GCM_encrypt_avx2_last_block_done
  12657. # aesenc_block
  12658. vmovdqu %xmm4, %xmm1
  12659. vpshufb L_avx2_aes_gcm_bswap_epi64(%rip), %xmm1, %xmm0
  12660. vpaddd L_avx2_aes_gcm_one(%rip), %xmm1, %xmm1
  12661. vpxor (%rsi), %xmm0, %xmm0
  12662. vmovdqu 16(%rsi), %xmm2
  12663. vaesenc %xmm2, %xmm0, %xmm0
  12664. vmovdqu 32(%rsi), %xmm2
  12665. vaesenc %xmm2, %xmm0, %xmm0
  12666. vmovdqu 48(%rsi), %xmm2
  12667. vaesenc %xmm2, %xmm0, %xmm0
  12668. vmovdqu 64(%rsi), %xmm2
  12669. vaesenc %xmm2, %xmm0, %xmm0
  12670. vmovdqu 80(%rsi), %xmm2
  12671. vaesenc %xmm2, %xmm0, %xmm0
  12672. vmovdqu 96(%rsi), %xmm2
  12673. vaesenc %xmm2, %xmm0, %xmm0
  12674. vmovdqu 112(%rsi), %xmm2
  12675. vaesenc %xmm2, %xmm0, %xmm0
  12676. vmovdqu 128(%rsi), %xmm2
  12677. vaesenc %xmm2, %xmm0, %xmm0
  12678. vmovdqu 144(%rsi), %xmm2
  12679. vaesenc %xmm2, %xmm0, %xmm0
  12680. vmovdqu %xmm1, %xmm4
  12681. cmpl $11, %r9d
  12682. vmovdqu 160(%rsi), %xmm1
  12683. jl L_AES_GCM_encrypt_avx2_aesenc_block_last
  12684. vaesenc %xmm1, %xmm0, %xmm0
  12685. vmovdqu 176(%rsi), %xmm2
  12686. vaesenc %xmm2, %xmm0, %xmm0
  12687. cmpl $13, %r9d
  12688. vmovdqu 192(%rsi), %xmm1
  12689. jl L_AES_GCM_encrypt_avx2_aesenc_block_last
  12690. vaesenc %xmm1, %xmm0, %xmm0
  12691. vmovdqu 208(%rsi), %xmm2
  12692. vaesenc %xmm2, %xmm0, %xmm0
  12693. vmovdqu 224(%rsi), %xmm1
  12694. L_AES_GCM_encrypt_avx2_aesenc_block_last:
  12695. vaesenclast %xmm1, %xmm0, %xmm0
  12696. vmovdqu (%rdi,%rbx,1), %xmm1
  12697. vpxor %xmm1, %xmm0, %xmm0
  12698. vmovdqu %xmm0, (%r8,%rbx,1)
  12699. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  12700. vpxor %xmm0, %xmm6, %xmm6
  12701. addl $16, %ebx
  12702. cmpl %r13d, %ebx
  12703. jge L_AES_GCM_encrypt_avx2_last_block_ghash
  12704. L_AES_GCM_encrypt_avx2_last_block_start:
  12705. vmovdqu (%rdi,%rbx,1), %xmm12
  12706. vpshufb L_avx2_aes_gcm_bswap_epi64(%rip), %xmm4, %xmm11
  12707. vpaddd L_avx2_aes_gcm_one(%rip), %xmm4, %xmm4
  12708. # aesenc_gfmul_sb
  12709. vpclmulqdq $0x01, %xmm5, %xmm6, %xmm2
  12710. vpclmulqdq $16, %xmm5, %xmm6, %xmm3
  12711. vpclmulqdq $0x00, %xmm5, %xmm6, %xmm1
  12712. vpclmulqdq $0x11, %xmm5, %xmm6, %xmm8
  12713. vpxor (%rsi), %xmm11, %xmm11
  12714. vaesenc 16(%rsi), %xmm11, %xmm11
  12715. vpxor %xmm2, %xmm3, %xmm3
  12716. vpslldq $8, %xmm3, %xmm2
  12717. vpsrldq $8, %xmm3, %xmm3
  12718. vaesenc 32(%rsi), %xmm11, %xmm11
  12719. vpxor %xmm1, %xmm2, %xmm2
  12720. vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm2, %xmm1
  12721. vaesenc 48(%rsi), %xmm11, %xmm11
  12722. vaesenc 64(%rsi), %xmm11, %xmm11
  12723. vaesenc 80(%rsi), %xmm11, %xmm11
  12724. vpshufd $0x4e, %xmm2, %xmm2
  12725. vpxor %xmm1, %xmm2, %xmm2
  12726. vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm2, %xmm1
  12727. vaesenc 96(%rsi), %xmm11, %xmm11
  12728. vaesenc 112(%rsi), %xmm11, %xmm11
  12729. vaesenc 128(%rsi), %xmm11, %xmm11
  12730. vpshufd $0x4e, %xmm2, %xmm2
  12731. vaesenc 144(%rsi), %xmm11, %xmm11
  12732. vpxor %xmm3, %xmm8, %xmm8
  12733. vpxor %xmm8, %xmm2, %xmm2
  12734. vmovdqu 160(%rsi), %xmm0
  12735. cmpl $11, %r9d
  12736. jl L_AES_GCM_encrypt_avx2_aesenc_gfmul_sb_last
  12737. vaesenc %xmm0, %xmm11, %xmm11
  12738. vaesenc 176(%rsi), %xmm11, %xmm11
  12739. vmovdqu 192(%rsi), %xmm0
  12740. cmpl $13, %r9d
  12741. jl L_AES_GCM_encrypt_avx2_aesenc_gfmul_sb_last
  12742. vaesenc %xmm0, %xmm11, %xmm11
  12743. vaesenc 208(%rsi), %xmm11, %xmm11
  12744. vmovdqu 224(%rsi), %xmm0
  12745. L_AES_GCM_encrypt_avx2_aesenc_gfmul_sb_last:
  12746. vaesenclast %xmm0, %xmm11, %xmm11
  12747. vpxor %xmm1, %xmm2, %xmm6
  12748. vpxor %xmm12, %xmm11, %xmm11
  12749. vmovdqu %xmm11, (%r8,%rbx,1)
  12750. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm11, %xmm11
  12751. vpxor %xmm11, %xmm6, %xmm6
  12752. addl $16, %ebx
  12753. cmpl %r13d, %ebx
  12754. jl L_AES_GCM_encrypt_avx2_last_block_start
  12755. L_AES_GCM_encrypt_avx2_last_block_ghash:
  12756. # ghash_gfmul_red
  12757. vpclmulqdq $16, %xmm5, %xmm6, %xmm10
  12758. vpclmulqdq $0x01, %xmm5, %xmm6, %xmm9
  12759. vpclmulqdq $0x00, %xmm5, %xmm6, %xmm8
  12760. vpxor %xmm9, %xmm10, %xmm10
  12761. vpslldq $8, %xmm10, %xmm9
  12762. vpsrldq $8, %xmm10, %xmm10
  12763. vpxor %xmm8, %xmm9, %xmm9
  12764. vpclmulqdq $0x11, %xmm5, %xmm6, %xmm6
  12765. vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm9, %xmm8
  12766. vpshufd $0x4e, %xmm9, %xmm9
  12767. vpxor %xmm8, %xmm9, %xmm9
  12768. vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm9, %xmm8
  12769. vpshufd $0x4e, %xmm9, %xmm9
  12770. vpxor %xmm10, %xmm6, %xmm6
  12771. vpxor %xmm9, %xmm6, %xmm6
  12772. vpxor %xmm8, %xmm6, %xmm6
  12773. L_AES_GCM_encrypt_avx2_last_block_done:
  12774. movl %r10d, %ecx
  12775. movl %r10d, %edx
  12776. andl $15, %ecx
  12777. jz L_AES_GCM_encrypt_avx2_done_enc
  12778. # aesenc_last15_enc
  12779. vpshufb L_avx2_aes_gcm_bswap_epi64(%rip), %xmm4, %xmm4
  12780. vpxor (%rsi), %xmm4, %xmm4
  12781. vaesenc 16(%rsi), %xmm4, %xmm4
  12782. vaesenc 32(%rsi), %xmm4, %xmm4
  12783. vaesenc 48(%rsi), %xmm4, %xmm4
  12784. vaesenc 64(%rsi), %xmm4, %xmm4
  12785. vaesenc 80(%rsi), %xmm4, %xmm4
  12786. vaesenc 96(%rsi), %xmm4, %xmm4
  12787. vaesenc 112(%rsi), %xmm4, %xmm4
  12788. vaesenc 128(%rsi), %xmm4, %xmm4
  12789. vaesenc 144(%rsi), %xmm4, %xmm4
  12790. cmpl $11, %r9d
  12791. vmovdqu 160(%rsi), %xmm0
  12792. jl L_AES_GCM_encrypt_avx2_aesenc_last15_enc_avx_aesenc_avx_last
  12793. vaesenc %xmm0, %xmm4, %xmm4
  12794. vaesenc 176(%rsi), %xmm4, %xmm4
  12795. cmpl $13, %r9d
  12796. vmovdqu 192(%rsi), %xmm0
  12797. jl L_AES_GCM_encrypt_avx2_aesenc_last15_enc_avx_aesenc_avx_last
  12798. vaesenc %xmm0, %xmm4, %xmm4
  12799. vaesenc 208(%rsi), %xmm4, %xmm4
  12800. vmovdqu 224(%rsi), %xmm0
  12801. L_AES_GCM_encrypt_avx2_aesenc_last15_enc_avx_aesenc_avx_last:
  12802. vaesenclast %xmm0, %xmm4, %xmm4
  12803. xorl %ecx, %ecx
  12804. vpxor %xmm0, %xmm0, %xmm0
  12805. vmovdqu %xmm4, (%rsp)
  12806. vmovdqu %xmm0, 16(%rsp)
  12807. L_AES_GCM_encrypt_avx2_aesenc_last15_enc_avx_loop:
  12808. movzbl (%rdi,%rbx,1), %r13d
  12809. xorb (%rsp,%rcx,1), %r13b
  12810. movb %r13b, 16(%rsp,%rcx,1)
  12811. movb %r13b, (%r8,%rbx,1)
  12812. incl %ebx
  12813. incl %ecx
  12814. cmpl %edx, %ebx
  12815. jl L_AES_GCM_encrypt_avx2_aesenc_last15_enc_avx_loop
  12816. L_AES_GCM_encrypt_avx2_aesenc_last15_enc_avx_finish_enc:
  12817. vmovdqu 16(%rsp), %xmm4
  12818. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm4, %xmm4
  12819. vpxor %xmm4, %xmm6, %xmm6
  12820. # ghash_gfmul_red
  12821. vpclmulqdq $16, %xmm5, %xmm6, %xmm2
  12822. vpclmulqdq $0x01, %xmm5, %xmm6, %xmm1
  12823. vpclmulqdq $0x00, %xmm5, %xmm6, %xmm0
  12824. vpxor %xmm1, %xmm2, %xmm2
  12825. vpslldq $8, %xmm2, %xmm1
  12826. vpsrldq $8, %xmm2, %xmm2
  12827. vpxor %xmm0, %xmm1, %xmm1
  12828. vpclmulqdq $0x11, %xmm5, %xmm6, %xmm6
  12829. vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm1, %xmm0
  12830. vpshufd $0x4e, %xmm1, %xmm1
  12831. vpxor %xmm0, %xmm1, %xmm1
  12832. vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm1, %xmm0
  12833. vpshufd $0x4e, %xmm1, %xmm1
  12834. vpxor %xmm2, %xmm6, %xmm6
  12835. vpxor %xmm1, %xmm6, %xmm6
  12836. vpxor %xmm0, %xmm6, %xmm6
  12837. L_AES_GCM_encrypt_avx2_done_enc:
  12838. # calc_tag
  12839. shlq $3, %r10
  12840. vpinsrq $0x00, %r10, %xmm0, %xmm0
  12841. shlq $3, %r11
  12842. vpinsrq $0x01, %r11, %xmm1, %xmm1
  12843. vpblendd $12, %xmm1, %xmm0, %xmm0
  12844. vpxor %xmm6, %xmm0, %xmm0
  12845. # ghash_gfmul_red
  12846. vpclmulqdq $16, %xmm5, %xmm0, %xmm4
  12847. vpclmulqdq $0x01, %xmm5, %xmm0, %xmm3
  12848. vpclmulqdq $0x00, %xmm5, %xmm0, %xmm2
  12849. vpxor %xmm3, %xmm4, %xmm4
  12850. vpslldq $8, %xmm4, %xmm3
  12851. vpsrldq $8, %xmm4, %xmm4
  12852. vpxor %xmm2, %xmm3, %xmm3
  12853. vpclmulqdq $0x11, %xmm5, %xmm0, %xmm0
  12854. vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm3, %xmm2
  12855. vpshufd $0x4e, %xmm3, %xmm3
  12856. vpxor %xmm2, %xmm3, %xmm3
  12857. vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm3, %xmm2
  12858. vpshufd $0x4e, %xmm3, %xmm3
  12859. vpxor %xmm4, %xmm0, %xmm0
  12860. vpxor %xmm3, %xmm0, %xmm0
  12861. vpxor %xmm2, %xmm0, %xmm0
  12862. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  12863. vpxor %xmm15, %xmm0, %xmm0
  12864. # store_tag
  12865. cmpl $16, %r14d
  12866. je L_AES_GCM_encrypt_avx2_store_tag_16
  12867. xorq %rcx, %rcx
  12868. vmovdqu %xmm0, (%rsp)
  12869. L_AES_GCM_encrypt_avx2_store_tag_loop:
  12870. movzbl (%rsp,%rcx,1), %r13d
  12871. movb %r13b, (%r15,%rcx,1)
  12872. incl %ecx
  12873. cmpl %r14d, %ecx
  12874. jne L_AES_GCM_encrypt_avx2_store_tag_loop
  12875. jmp L_AES_GCM_encrypt_avx2_store_tag_done
  12876. L_AES_GCM_encrypt_avx2_store_tag_16:
  12877. vmovdqu %xmm0, (%r15)
  12878. L_AES_GCM_encrypt_avx2_store_tag_done:
  12879. vzeroupper
  12880. addq $0xa0, %rsp
  12881. popq %r14
  12882. popq %rbx
  12883. popq %r15
  12884. popq %r12
  12885. popq %r13
  12886. repz retq
  12887. #ifndef __APPLE__
  12888. .size AES_GCM_encrypt_avx2,.-AES_GCM_encrypt_avx2
  12889. #endif /* __APPLE__ */
  12890. #ifndef __APPLE__
  12891. .text
  12892. .globl AES_GCM_decrypt_avx2
  12893. .type AES_GCM_decrypt_avx2,@function
  12894. .align 16
  12895. AES_GCM_decrypt_avx2:
  12896. #else
  12897. .section __TEXT,__text
  12898. .globl _AES_GCM_decrypt_avx2
  12899. .p2align 4
  12900. _AES_GCM_decrypt_avx2:
  12901. #endif /* __APPLE__ */
  12902. pushq %r13
  12903. pushq %r12
  12904. pushq %r14
  12905. pushq %rbx
  12906. pushq %r15
  12907. pushq %rbp
  12908. movq %rdx, %r12
  12909. movq %rcx, %rax
  12910. movq %r8, %r14
  12911. movq %rsi, %r8
  12912. movl %r9d, %r10d
  12913. movl 56(%rsp), %r11d
  12914. movl 64(%rsp), %ebx
  12915. movl 72(%rsp), %r15d
  12916. movq 80(%rsp), %rsi
  12917. movl 88(%rsp), %r9d
  12918. movq 96(%rsp), %rbp
  12919. subq $0xa8, %rsp
  12920. vpxor %xmm4, %xmm4, %xmm4
  12921. vpxor %xmm6, %xmm6, %xmm6
  12922. movl %ebx, %edx
  12923. cmpl $12, %edx
  12924. je L_AES_GCM_decrypt_avx2_iv_12
  12925. # Calculate values when IV is not 12 bytes
  12926. # H = Encrypt X(=0)
  12927. vmovdqu (%rsi), %xmm5
  12928. vaesenc 16(%rsi), %xmm5, %xmm5
  12929. vaesenc 32(%rsi), %xmm5, %xmm5
  12930. vaesenc 48(%rsi), %xmm5, %xmm5
  12931. vaesenc 64(%rsi), %xmm5, %xmm5
  12932. vaesenc 80(%rsi), %xmm5, %xmm5
  12933. vaesenc 96(%rsi), %xmm5, %xmm5
  12934. vaesenc 112(%rsi), %xmm5, %xmm5
  12935. vaesenc 128(%rsi), %xmm5, %xmm5
  12936. vaesenc 144(%rsi), %xmm5, %xmm5
  12937. cmpl $11, %r9d
  12938. vmovdqu 160(%rsi), %xmm0
  12939. jl L_AES_GCM_decrypt_avx2_calc_iv_1_aesenc_avx_last
  12940. vaesenc %xmm0, %xmm5, %xmm5
  12941. vaesenc 176(%rsi), %xmm5, %xmm5
  12942. cmpl $13, %r9d
  12943. vmovdqu 192(%rsi), %xmm0
  12944. jl L_AES_GCM_decrypt_avx2_calc_iv_1_aesenc_avx_last
  12945. vaesenc %xmm0, %xmm5, %xmm5
  12946. vaesenc 208(%rsi), %xmm5, %xmm5
  12947. vmovdqu 224(%rsi), %xmm0
  12948. L_AES_GCM_decrypt_avx2_calc_iv_1_aesenc_avx_last:
  12949. vaesenclast %xmm0, %xmm5, %xmm5
  12950. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm5, %xmm5
  12951. # Calc counter
  12952. # Initialization vector
  12953. cmpl $0x00, %edx
  12954. movq $0x00, %rcx
  12955. je L_AES_GCM_decrypt_avx2_calc_iv_done
  12956. cmpl $16, %edx
  12957. jl L_AES_GCM_decrypt_avx2_calc_iv_lt16
  12958. andl $0xfffffff0, %edx
  12959. L_AES_GCM_decrypt_avx2_calc_iv_16_loop:
  12960. vmovdqu (%rax,%rcx,1), %xmm0
  12961. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  12962. vpxor %xmm0, %xmm4, %xmm4
  12963. # ghash_gfmul_avx
  12964. vpclmulqdq $16, %xmm4, %xmm5, %xmm2
  12965. vpclmulqdq $0x01, %xmm4, %xmm5, %xmm1
  12966. vpclmulqdq $0x00, %xmm4, %xmm5, %xmm0
  12967. vpclmulqdq $0x11, %xmm4, %xmm5, %xmm3
  12968. vpxor %xmm1, %xmm2, %xmm2
  12969. vpslldq $8, %xmm2, %xmm1
  12970. vpsrldq $8, %xmm2, %xmm2
  12971. vpxor %xmm1, %xmm0, %xmm7
  12972. vpxor %xmm2, %xmm3, %xmm4
  12973. # ghash_mid
  12974. vpsrld $31, %xmm7, %xmm0
  12975. vpsrld $31, %xmm4, %xmm1
  12976. vpslld $0x01, %xmm7, %xmm7
  12977. vpslld $0x01, %xmm4, %xmm4
  12978. vpsrldq $12, %xmm0, %xmm2
  12979. vpslldq $4, %xmm0, %xmm0
  12980. vpslldq $4, %xmm1, %xmm1
  12981. vpor %xmm2, %xmm4, %xmm4
  12982. vpor %xmm0, %xmm7, %xmm7
  12983. vpor %xmm1, %xmm4, %xmm4
  12984. # ghash_red
  12985. vmovdqu L_avx2_aes_gcm_mod2_128(%rip), %xmm2
  12986. vpclmulqdq $16, %xmm2, %xmm7, %xmm0
  12987. vpshufd $0x4e, %xmm7, %xmm1
  12988. vpxor %xmm0, %xmm1, %xmm1
  12989. vpclmulqdq $16, %xmm2, %xmm1, %xmm0
  12990. vpshufd $0x4e, %xmm1, %xmm1
  12991. vpxor %xmm0, %xmm1, %xmm1
  12992. vpxor %xmm1, %xmm4, %xmm4
  12993. addl $16, %ecx
  12994. cmpl %edx, %ecx
  12995. jl L_AES_GCM_decrypt_avx2_calc_iv_16_loop
  12996. movl %ebx, %edx
  12997. cmpl %edx, %ecx
  12998. je L_AES_GCM_decrypt_avx2_calc_iv_done
  12999. L_AES_GCM_decrypt_avx2_calc_iv_lt16:
  13000. vpxor %xmm0, %xmm0, %xmm0
  13001. xorl %ebx, %ebx
  13002. vmovdqu %xmm0, (%rsp)
  13003. L_AES_GCM_decrypt_avx2_calc_iv_loop:
  13004. movzbl (%rax,%rcx,1), %r13d
  13005. movb %r13b, (%rsp,%rbx,1)
  13006. incl %ecx
  13007. incl %ebx
  13008. cmpl %edx, %ecx
  13009. jl L_AES_GCM_decrypt_avx2_calc_iv_loop
  13010. vmovdqu (%rsp), %xmm0
  13011. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  13012. vpxor %xmm0, %xmm4, %xmm4
  13013. # ghash_gfmul_avx
  13014. vpclmulqdq $16, %xmm4, %xmm5, %xmm2
  13015. vpclmulqdq $0x01, %xmm4, %xmm5, %xmm1
  13016. vpclmulqdq $0x00, %xmm4, %xmm5, %xmm0
  13017. vpclmulqdq $0x11, %xmm4, %xmm5, %xmm3
  13018. vpxor %xmm1, %xmm2, %xmm2
  13019. vpslldq $8, %xmm2, %xmm1
  13020. vpsrldq $8, %xmm2, %xmm2
  13021. vpxor %xmm1, %xmm0, %xmm7
  13022. vpxor %xmm2, %xmm3, %xmm4
  13023. # ghash_mid
  13024. vpsrld $31, %xmm7, %xmm0
  13025. vpsrld $31, %xmm4, %xmm1
  13026. vpslld $0x01, %xmm7, %xmm7
  13027. vpslld $0x01, %xmm4, %xmm4
  13028. vpsrldq $12, %xmm0, %xmm2
  13029. vpslldq $4, %xmm0, %xmm0
  13030. vpslldq $4, %xmm1, %xmm1
  13031. vpor %xmm2, %xmm4, %xmm4
  13032. vpor %xmm0, %xmm7, %xmm7
  13033. vpor %xmm1, %xmm4, %xmm4
  13034. # ghash_red
  13035. vmovdqu L_avx2_aes_gcm_mod2_128(%rip), %xmm2
  13036. vpclmulqdq $16, %xmm2, %xmm7, %xmm0
  13037. vpshufd $0x4e, %xmm7, %xmm1
  13038. vpxor %xmm0, %xmm1, %xmm1
  13039. vpclmulqdq $16, %xmm2, %xmm1, %xmm0
  13040. vpshufd $0x4e, %xmm1, %xmm1
  13041. vpxor %xmm0, %xmm1, %xmm1
  13042. vpxor %xmm1, %xmm4, %xmm4
  13043. L_AES_GCM_decrypt_avx2_calc_iv_done:
  13044. # T = Encrypt counter
  13045. vpxor %xmm0, %xmm0, %xmm0
  13046. shll $3, %edx
  13047. vpinsrq $0x00, %rdx, %xmm0, %xmm0
  13048. vpxor %xmm0, %xmm4, %xmm4
  13049. # ghash_gfmul_avx
  13050. vpclmulqdq $16, %xmm4, %xmm5, %xmm2
  13051. vpclmulqdq $0x01, %xmm4, %xmm5, %xmm1
  13052. vpclmulqdq $0x00, %xmm4, %xmm5, %xmm0
  13053. vpclmulqdq $0x11, %xmm4, %xmm5, %xmm3
  13054. vpxor %xmm1, %xmm2, %xmm2
  13055. vpslldq $8, %xmm2, %xmm1
  13056. vpsrldq $8, %xmm2, %xmm2
  13057. vpxor %xmm1, %xmm0, %xmm7
  13058. vpxor %xmm2, %xmm3, %xmm4
  13059. # ghash_mid
  13060. vpsrld $31, %xmm7, %xmm0
  13061. vpsrld $31, %xmm4, %xmm1
  13062. vpslld $0x01, %xmm7, %xmm7
  13063. vpslld $0x01, %xmm4, %xmm4
  13064. vpsrldq $12, %xmm0, %xmm2
  13065. vpslldq $4, %xmm0, %xmm0
  13066. vpslldq $4, %xmm1, %xmm1
  13067. vpor %xmm2, %xmm4, %xmm4
  13068. vpor %xmm0, %xmm7, %xmm7
  13069. vpor %xmm1, %xmm4, %xmm4
  13070. # ghash_red
  13071. vmovdqu L_avx2_aes_gcm_mod2_128(%rip), %xmm2
  13072. vpclmulqdq $16, %xmm2, %xmm7, %xmm0
  13073. vpshufd $0x4e, %xmm7, %xmm1
  13074. vpxor %xmm0, %xmm1, %xmm1
  13075. vpclmulqdq $16, %xmm2, %xmm1, %xmm0
  13076. vpshufd $0x4e, %xmm1, %xmm1
  13077. vpxor %xmm0, %xmm1, %xmm1
  13078. vpxor %xmm1, %xmm4, %xmm4
  13079. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm4, %xmm4
  13080. # Encrypt counter
  13081. vmovdqu (%rsi), %xmm15
  13082. vpxor %xmm4, %xmm15, %xmm15
  13083. vaesenc 16(%rsi), %xmm15, %xmm15
  13084. vaesenc 32(%rsi), %xmm15, %xmm15
  13085. vaesenc 48(%rsi), %xmm15, %xmm15
  13086. vaesenc 64(%rsi), %xmm15, %xmm15
  13087. vaesenc 80(%rsi), %xmm15, %xmm15
  13088. vaesenc 96(%rsi), %xmm15, %xmm15
  13089. vaesenc 112(%rsi), %xmm15, %xmm15
  13090. vaesenc 128(%rsi), %xmm15, %xmm15
  13091. vaesenc 144(%rsi), %xmm15, %xmm15
  13092. cmpl $11, %r9d
  13093. vmovdqu 160(%rsi), %xmm0
  13094. jl L_AES_GCM_decrypt_avx2_calc_iv_2_aesenc_avx_last
  13095. vaesenc %xmm0, %xmm15, %xmm15
  13096. vaesenc 176(%rsi), %xmm15, %xmm15
  13097. cmpl $13, %r9d
  13098. vmovdqu 192(%rsi), %xmm0
  13099. jl L_AES_GCM_decrypt_avx2_calc_iv_2_aesenc_avx_last
  13100. vaesenc %xmm0, %xmm15, %xmm15
  13101. vaesenc 208(%rsi), %xmm15, %xmm15
  13102. vmovdqu 224(%rsi), %xmm0
  13103. L_AES_GCM_decrypt_avx2_calc_iv_2_aesenc_avx_last:
  13104. vaesenclast %xmm0, %xmm15, %xmm15
  13105. jmp L_AES_GCM_decrypt_avx2_iv_done
  13106. L_AES_GCM_decrypt_avx2_iv_12:
  13107. # # Calculate values when IV is 12 bytes
  13108. # Set counter based on IV
  13109. vmovdqu L_avx2_aes_gcm_bswap_one(%rip), %xmm4
  13110. vmovdqu (%rsi), %xmm5
  13111. vpblendd $7, (%rax), %xmm4, %xmm4
  13112. # H = Encrypt X(=0) and T = Encrypt counter
  13113. vmovdqu 16(%rsi), %xmm7
  13114. vpxor %xmm5, %xmm4, %xmm15
  13115. vaesenc %xmm7, %xmm5, %xmm5
  13116. vaesenc %xmm7, %xmm15, %xmm15
  13117. vmovdqu 32(%rsi), %xmm0
  13118. vaesenc %xmm0, %xmm5, %xmm5
  13119. vaesenc %xmm0, %xmm15, %xmm15
  13120. vmovdqu 48(%rsi), %xmm0
  13121. vaesenc %xmm0, %xmm5, %xmm5
  13122. vaesenc %xmm0, %xmm15, %xmm15
  13123. vmovdqu 64(%rsi), %xmm0
  13124. vaesenc %xmm0, %xmm5, %xmm5
  13125. vaesenc %xmm0, %xmm15, %xmm15
  13126. vmovdqu 80(%rsi), %xmm0
  13127. vaesenc %xmm0, %xmm5, %xmm5
  13128. vaesenc %xmm0, %xmm15, %xmm15
  13129. vmovdqu 96(%rsi), %xmm0
  13130. vaesenc %xmm0, %xmm5, %xmm5
  13131. vaesenc %xmm0, %xmm15, %xmm15
  13132. vmovdqu 112(%rsi), %xmm0
  13133. vaesenc %xmm0, %xmm5, %xmm5
  13134. vaesenc %xmm0, %xmm15, %xmm15
  13135. vmovdqu 128(%rsi), %xmm0
  13136. vaesenc %xmm0, %xmm5, %xmm5
  13137. vaesenc %xmm0, %xmm15, %xmm15
  13138. vmovdqu 144(%rsi), %xmm0
  13139. vaesenc %xmm0, %xmm5, %xmm5
  13140. vaesenc %xmm0, %xmm15, %xmm15
  13141. cmpl $11, %r9d
  13142. vmovdqu 160(%rsi), %xmm0
  13143. jl L_AES_GCM_decrypt_avx2_calc_iv_12_last
  13144. vaesenc %xmm0, %xmm5, %xmm5
  13145. vaesenc %xmm0, %xmm15, %xmm15
  13146. vmovdqu 176(%rsi), %xmm0
  13147. vaesenc %xmm0, %xmm5, %xmm5
  13148. vaesenc %xmm0, %xmm15, %xmm15
  13149. cmpl $13, %r9d
  13150. vmovdqu 192(%rsi), %xmm0
  13151. jl L_AES_GCM_decrypt_avx2_calc_iv_12_last
  13152. vaesenc %xmm0, %xmm5, %xmm5
  13153. vaesenc %xmm0, %xmm15, %xmm15
  13154. vmovdqu 208(%rsi), %xmm0
  13155. vaesenc %xmm0, %xmm5, %xmm5
  13156. vaesenc %xmm0, %xmm15, %xmm15
  13157. vmovdqu 224(%rsi), %xmm0
  13158. L_AES_GCM_decrypt_avx2_calc_iv_12_last:
  13159. vaesenclast %xmm0, %xmm5, %xmm5
  13160. vaesenclast %xmm0, %xmm15, %xmm15
  13161. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm5, %xmm5
  13162. L_AES_GCM_decrypt_avx2_iv_done:
  13163. # Additional authentication data
  13164. movl %r11d, %edx
  13165. cmpl $0x00, %edx
  13166. je L_AES_GCM_decrypt_avx2_calc_aad_done
  13167. xorl %ecx, %ecx
  13168. cmpl $16, %edx
  13169. jl L_AES_GCM_decrypt_avx2_calc_aad_lt16
  13170. andl $0xfffffff0, %edx
  13171. L_AES_GCM_decrypt_avx2_calc_aad_16_loop:
  13172. vmovdqu (%r12,%rcx,1), %xmm0
  13173. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  13174. vpxor %xmm0, %xmm6, %xmm6
  13175. # ghash_gfmul_avx
  13176. vpclmulqdq $16, %xmm6, %xmm5, %xmm2
  13177. vpclmulqdq $0x01, %xmm6, %xmm5, %xmm1
  13178. vpclmulqdq $0x00, %xmm6, %xmm5, %xmm0
  13179. vpclmulqdq $0x11, %xmm6, %xmm5, %xmm3
  13180. vpxor %xmm1, %xmm2, %xmm2
  13181. vpslldq $8, %xmm2, %xmm1
  13182. vpsrldq $8, %xmm2, %xmm2
  13183. vpxor %xmm1, %xmm0, %xmm7
  13184. vpxor %xmm2, %xmm3, %xmm6
  13185. # ghash_mid
  13186. vpsrld $31, %xmm7, %xmm0
  13187. vpsrld $31, %xmm6, %xmm1
  13188. vpslld $0x01, %xmm7, %xmm7
  13189. vpslld $0x01, %xmm6, %xmm6
  13190. vpsrldq $12, %xmm0, %xmm2
  13191. vpslldq $4, %xmm0, %xmm0
  13192. vpslldq $4, %xmm1, %xmm1
  13193. vpor %xmm2, %xmm6, %xmm6
  13194. vpor %xmm0, %xmm7, %xmm7
  13195. vpor %xmm1, %xmm6, %xmm6
  13196. # ghash_red
  13197. vmovdqu L_avx2_aes_gcm_mod2_128(%rip), %xmm2
  13198. vpclmulqdq $16, %xmm2, %xmm7, %xmm0
  13199. vpshufd $0x4e, %xmm7, %xmm1
  13200. vpxor %xmm0, %xmm1, %xmm1
  13201. vpclmulqdq $16, %xmm2, %xmm1, %xmm0
  13202. vpshufd $0x4e, %xmm1, %xmm1
  13203. vpxor %xmm0, %xmm1, %xmm1
  13204. vpxor %xmm1, %xmm6, %xmm6
  13205. addl $16, %ecx
  13206. cmpl %edx, %ecx
  13207. jl L_AES_GCM_decrypt_avx2_calc_aad_16_loop
  13208. movl %r11d, %edx
  13209. cmpl %edx, %ecx
  13210. je L_AES_GCM_decrypt_avx2_calc_aad_done
  13211. L_AES_GCM_decrypt_avx2_calc_aad_lt16:
  13212. vpxor %xmm0, %xmm0, %xmm0
  13213. xorl %ebx, %ebx
  13214. vmovdqu %xmm0, (%rsp)
  13215. L_AES_GCM_decrypt_avx2_calc_aad_loop:
  13216. movzbl (%r12,%rcx,1), %r13d
  13217. movb %r13b, (%rsp,%rbx,1)
  13218. incl %ecx
  13219. incl %ebx
  13220. cmpl %edx, %ecx
  13221. jl L_AES_GCM_decrypt_avx2_calc_aad_loop
  13222. vmovdqu (%rsp), %xmm0
  13223. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  13224. vpxor %xmm0, %xmm6, %xmm6
  13225. # ghash_gfmul_avx
  13226. vpclmulqdq $16, %xmm6, %xmm5, %xmm2
  13227. vpclmulqdq $0x01, %xmm6, %xmm5, %xmm1
  13228. vpclmulqdq $0x00, %xmm6, %xmm5, %xmm0
  13229. vpclmulqdq $0x11, %xmm6, %xmm5, %xmm3
  13230. vpxor %xmm1, %xmm2, %xmm2
  13231. vpslldq $8, %xmm2, %xmm1
  13232. vpsrldq $8, %xmm2, %xmm2
  13233. vpxor %xmm1, %xmm0, %xmm7
  13234. vpxor %xmm2, %xmm3, %xmm6
  13235. # ghash_mid
  13236. vpsrld $31, %xmm7, %xmm0
  13237. vpsrld $31, %xmm6, %xmm1
  13238. vpslld $0x01, %xmm7, %xmm7
  13239. vpslld $0x01, %xmm6, %xmm6
  13240. vpsrldq $12, %xmm0, %xmm2
  13241. vpslldq $4, %xmm0, %xmm0
  13242. vpslldq $4, %xmm1, %xmm1
  13243. vpor %xmm2, %xmm6, %xmm6
  13244. vpor %xmm0, %xmm7, %xmm7
  13245. vpor %xmm1, %xmm6, %xmm6
  13246. # ghash_red
  13247. vmovdqu L_avx2_aes_gcm_mod2_128(%rip), %xmm2
  13248. vpclmulqdq $16, %xmm2, %xmm7, %xmm0
  13249. vpshufd $0x4e, %xmm7, %xmm1
  13250. vpxor %xmm0, %xmm1, %xmm1
  13251. vpclmulqdq $16, %xmm2, %xmm1, %xmm0
  13252. vpshufd $0x4e, %xmm1, %xmm1
  13253. vpxor %xmm0, %xmm1, %xmm1
  13254. vpxor %xmm1, %xmm6, %xmm6
  13255. L_AES_GCM_decrypt_avx2_calc_aad_done:
  13256. # Calculate counter and H
  13257. vpsrlq $63, %xmm5, %xmm1
  13258. vpsllq $0x01, %xmm5, %xmm0
  13259. vpslldq $8, %xmm1, %xmm1
  13260. vpor %xmm1, %xmm0, %xmm0
  13261. vpshufd $0xff, %xmm5, %xmm5
  13262. vpsrad $31, %xmm5, %xmm5
  13263. vpshufb L_avx2_aes_gcm_bswap_epi64(%rip), %xmm4, %xmm4
  13264. vpand L_avx2_aes_gcm_mod2_128(%rip), %xmm5, %xmm5
  13265. vpaddd L_avx2_aes_gcm_one(%rip), %xmm4, %xmm4
  13266. vpxor %xmm0, %xmm5, %xmm5
  13267. xorl %ebx, %ebx
  13268. cmpl $0x80, %r10d
  13269. movl %r10d, %r13d
  13270. jl L_AES_GCM_decrypt_avx2_done_128
  13271. andl $0xffffff80, %r13d
  13272. vmovdqu %xmm4, 128(%rsp)
  13273. vmovdqu %xmm15, 144(%rsp)
  13274. vmovdqu L_avx2_aes_gcm_mod2_128(%rip), %xmm3
  13275. # H ^ 1 and H ^ 2
  13276. vpclmulqdq $0x00, %xmm5, %xmm5, %xmm9
  13277. vpclmulqdq $0x11, %xmm5, %xmm5, %xmm10
  13278. vpclmulqdq $16, %xmm3, %xmm9, %xmm8
  13279. vpshufd $0x4e, %xmm9, %xmm9
  13280. vpxor %xmm8, %xmm9, %xmm9
  13281. vpclmulqdq $16, %xmm3, %xmm9, %xmm8
  13282. vpshufd $0x4e, %xmm9, %xmm9
  13283. vpxor %xmm8, %xmm9, %xmm9
  13284. vpxor %xmm9, %xmm10, %xmm0
  13285. vmovdqu %xmm5, (%rsp)
  13286. vmovdqu %xmm0, 16(%rsp)
  13287. # H ^ 3 and H ^ 4
  13288. vpclmulqdq $16, %xmm5, %xmm0, %xmm11
  13289. vpclmulqdq $0x01, %xmm5, %xmm0, %xmm10
  13290. vpclmulqdq $0x00, %xmm5, %xmm0, %xmm9
  13291. vpclmulqdq $0x11, %xmm5, %xmm0, %xmm12
  13292. vpclmulqdq $0x00, %xmm0, %xmm0, %xmm13
  13293. vpclmulqdq $0x11, %xmm0, %xmm0, %xmm14
  13294. vpxor %xmm10, %xmm11, %xmm11
  13295. vpslldq $8, %xmm11, %xmm10
  13296. vpsrldq $8, %xmm11, %xmm11
  13297. vpxor %xmm9, %xmm10, %xmm10
  13298. vpclmulqdq $16, %xmm3, %xmm13, %xmm8
  13299. vpclmulqdq $16, %xmm3, %xmm10, %xmm9
  13300. vpshufd $0x4e, %xmm10, %xmm10
  13301. vpshufd $0x4e, %xmm13, %xmm13
  13302. vpxor %xmm9, %xmm10, %xmm10
  13303. vpxor %xmm8, %xmm13, %xmm13
  13304. vpclmulqdq $16, %xmm3, %xmm10, %xmm9
  13305. vpclmulqdq $16, %xmm3, %xmm13, %xmm8
  13306. vpshufd $0x4e, %xmm10, %xmm10
  13307. vpshufd $0x4e, %xmm13, %xmm13
  13308. vpxor %xmm11, %xmm12, %xmm12
  13309. vpxor %xmm8, %xmm13, %xmm13
  13310. vpxor %xmm12, %xmm10, %xmm10
  13311. vpxor %xmm14, %xmm13, %xmm2
  13312. vpxor %xmm9, %xmm10, %xmm1
  13313. vmovdqu %xmm1, 32(%rsp)
  13314. vmovdqu %xmm2, 48(%rsp)
  13315. # H ^ 5 and H ^ 6
  13316. vpclmulqdq $16, %xmm0, %xmm1, %xmm11
  13317. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm10
  13318. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm9
  13319. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm12
  13320. vpclmulqdq $0x00, %xmm1, %xmm1, %xmm13
  13321. vpclmulqdq $0x11, %xmm1, %xmm1, %xmm14
  13322. vpxor %xmm10, %xmm11, %xmm11
  13323. vpslldq $8, %xmm11, %xmm10
  13324. vpsrldq $8, %xmm11, %xmm11
  13325. vpxor %xmm9, %xmm10, %xmm10
  13326. vpclmulqdq $16, %xmm3, %xmm13, %xmm8
  13327. vpclmulqdq $16, %xmm3, %xmm10, %xmm9
  13328. vpshufd $0x4e, %xmm10, %xmm10
  13329. vpshufd $0x4e, %xmm13, %xmm13
  13330. vpxor %xmm9, %xmm10, %xmm10
  13331. vpxor %xmm8, %xmm13, %xmm13
  13332. vpclmulqdq $16, %xmm3, %xmm10, %xmm9
  13333. vpclmulqdq $16, %xmm3, %xmm13, %xmm8
  13334. vpshufd $0x4e, %xmm10, %xmm10
  13335. vpshufd $0x4e, %xmm13, %xmm13
  13336. vpxor %xmm11, %xmm12, %xmm12
  13337. vpxor %xmm8, %xmm13, %xmm13
  13338. vpxor %xmm12, %xmm10, %xmm10
  13339. vpxor %xmm14, %xmm13, %xmm0
  13340. vpxor %xmm9, %xmm10, %xmm7
  13341. vmovdqu %xmm7, 64(%rsp)
  13342. vmovdqu %xmm0, 80(%rsp)
  13343. # H ^ 7 and H ^ 8
  13344. vpclmulqdq $16, %xmm1, %xmm2, %xmm11
  13345. vpclmulqdq $0x01, %xmm1, %xmm2, %xmm10
  13346. vpclmulqdq $0x00, %xmm1, %xmm2, %xmm9
  13347. vpclmulqdq $0x11, %xmm1, %xmm2, %xmm12
  13348. vpclmulqdq $0x00, %xmm2, %xmm2, %xmm13
  13349. vpclmulqdq $0x11, %xmm2, %xmm2, %xmm14
  13350. vpxor %xmm10, %xmm11, %xmm11
  13351. vpslldq $8, %xmm11, %xmm10
  13352. vpsrldq $8, %xmm11, %xmm11
  13353. vpxor %xmm9, %xmm10, %xmm10
  13354. vpclmulqdq $16, %xmm3, %xmm13, %xmm8
  13355. vpclmulqdq $16, %xmm3, %xmm10, %xmm9
  13356. vpshufd $0x4e, %xmm10, %xmm10
  13357. vpshufd $0x4e, %xmm13, %xmm13
  13358. vpxor %xmm9, %xmm10, %xmm10
  13359. vpxor %xmm8, %xmm13, %xmm13
  13360. vpclmulqdq $16, %xmm3, %xmm10, %xmm9
  13361. vpclmulqdq $16, %xmm3, %xmm13, %xmm8
  13362. vpshufd $0x4e, %xmm10, %xmm10
  13363. vpshufd $0x4e, %xmm13, %xmm13
  13364. vpxor %xmm11, %xmm12, %xmm12
  13365. vpxor %xmm8, %xmm13, %xmm13
  13366. vpxor %xmm12, %xmm10, %xmm10
  13367. vpxor %xmm14, %xmm13, %xmm0
  13368. vpxor %xmm9, %xmm10, %xmm7
  13369. vmovdqu %xmm7, 96(%rsp)
  13370. vmovdqu %xmm0, 112(%rsp)
  13371. L_AES_GCM_decrypt_avx2_ghash_128:
  13372. # aesenc_128_ghash
  13373. leaq (%rdi,%rbx,1), %rcx
  13374. leaq (%r8,%rbx,1), %rdx
  13375. # aesenc_ctr
  13376. vmovdqu 128(%rsp), %xmm0
  13377. vmovdqu L_avx2_aes_gcm_bswap_epi64(%rip), %xmm1
  13378. vpaddd L_avx2_aes_gcm_one(%rip), %xmm0, %xmm9
  13379. vpshufb %xmm1, %xmm0, %xmm8
  13380. vpaddd L_avx2_aes_gcm_two(%rip), %xmm0, %xmm10
  13381. vpshufb %xmm1, %xmm9, %xmm9
  13382. vpaddd L_avx2_aes_gcm_three(%rip), %xmm0, %xmm11
  13383. vpshufb %xmm1, %xmm10, %xmm10
  13384. vpaddd L_avx2_aes_gcm_four(%rip), %xmm0, %xmm12
  13385. vpshufb %xmm1, %xmm11, %xmm11
  13386. vpaddd L_avx2_aes_gcm_five(%rip), %xmm0, %xmm13
  13387. vpshufb %xmm1, %xmm12, %xmm12
  13388. vpaddd L_avx2_aes_gcm_six(%rip), %xmm0, %xmm14
  13389. vpshufb %xmm1, %xmm13, %xmm13
  13390. vpaddd L_avx2_aes_gcm_seven(%rip), %xmm0, %xmm15
  13391. vpshufb %xmm1, %xmm14, %xmm14
  13392. vpaddd L_avx2_aes_gcm_eight(%rip), %xmm0, %xmm0
  13393. vpshufb %xmm1, %xmm15, %xmm15
  13394. # aesenc_xor
  13395. vmovdqu (%rsi), %xmm7
  13396. vmovdqu %xmm0, 128(%rsp)
  13397. vpxor %xmm7, %xmm8, %xmm8
  13398. vpxor %xmm7, %xmm9, %xmm9
  13399. vpxor %xmm7, %xmm10, %xmm10
  13400. vpxor %xmm7, %xmm11, %xmm11
  13401. vpxor %xmm7, %xmm12, %xmm12
  13402. vpxor %xmm7, %xmm13, %xmm13
  13403. vpxor %xmm7, %xmm14, %xmm14
  13404. vpxor %xmm7, %xmm15, %xmm15
  13405. # aesenc_pclmul_1
  13406. vmovdqu (%rcx), %xmm1
  13407. vmovdqu 16(%rsi), %xmm0
  13408. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
  13409. vmovdqu 112(%rsp), %xmm2
  13410. vpxor %xmm6, %xmm1, %xmm1
  13411. vpclmulqdq $16, %xmm2, %xmm1, %xmm5
  13412. vpclmulqdq $0x01, %xmm2, %xmm1, %xmm3
  13413. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm6
  13414. vpclmulqdq $0x11, %xmm2, %xmm1, %xmm7
  13415. vaesenc %xmm0, %xmm8, %xmm8
  13416. vaesenc %xmm0, %xmm9, %xmm9
  13417. vaesenc %xmm0, %xmm10, %xmm10
  13418. vaesenc %xmm0, %xmm11, %xmm11
  13419. vaesenc %xmm0, %xmm12, %xmm12
  13420. vaesenc %xmm0, %xmm13, %xmm13
  13421. vaesenc %xmm0, %xmm14, %xmm14
  13422. vaesenc %xmm0, %xmm15, %xmm15
  13423. # aesenc_pclmul_2
  13424. vmovdqu 16(%rcx), %xmm1
  13425. vmovdqu 96(%rsp), %xmm0
  13426. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
  13427. vpxor %xmm3, %xmm5, %xmm5
  13428. vpclmulqdq $16, %xmm0, %xmm1, %xmm2
  13429. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
  13430. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
  13431. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
  13432. vmovdqu 32(%rsi), %xmm0
  13433. vpxor %xmm1, %xmm7, %xmm7
  13434. vaesenc %xmm0, %xmm8, %xmm8
  13435. vaesenc %xmm0, %xmm9, %xmm9
  13436. vaesenc %xmm0, %xmm10, %xmm10
  13437. vaesenc %xmm0, %xmm11, %xmm11
  13438. vaesenc %xmm0, %xmm12, %xmm12
  13439. vaesenc %xmm0, %xmm13, %xmm13
  13440. vaesenc %xmm0, %xmm14, %xmm14
  13441. vaesenc %xmm0, %xmm15, %xmm15
  13442. # aesenc_pclmul_n
  13443. vmovdqu 32(%rcx), %xmm1
  13444. vmovdqu 80(%rsp), %xmm0
  13445. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
  13446. vpxor %xmm2, %xmm5, %xmm5
  13447. vpclmulqdq $16, %xmm0, %xmm1, %xmm2
  13448. vpxor %xmm3, %xmm5, %xmm5
  13449. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
  13450. vpxor %xmm4, %xmm6, %xmm6
  13451. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
  13452. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
  13453. vmovdqu 48(%rsi), %xmm0
  13454. vpxor %xmm1, %xmm7, %xmm7
  13455. vaesenc %xmm0, %xmm8, %xmm8
  13456. vaesenc %xmm0, %xmm9, %xmm9
  13457. vaesenc %xmm0, %xmm10, %xmm10
  13458. vaesenc %xmm0, %xmm11, %xmm11
  13459. vaesenc %xmm0, %xmm12, %xmm12
  13460. vaesenc %xmm0, %xmm13, %xmm13
  13461. vaesenc %xmm0, %xmm14, %xmm14
  13462. vaesenc %xmm0, %xmm15, %xmm15
  13463. # aesenc_pclmul_n
  13464. vmovdqu 48(%rcx), %xmm1
  13465. vmovdqu 64(%rsp), %xmm0
  13466. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
  13467. vpxor %xmm2, %xmm5, %xmm5
  13468. vpclmulqdq $16, %xmm0, %xmm1, %xmm2
  13469. vpxor %xmm3, %xmm5, %xmm5
  13470. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
  13471. vpxor %xmm4, %xmm6, %xmm6
  13472. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
  13473. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
  13474. vmovdqu 64(%rsi), %xmm0
  13475. vpxor %xmm1, %xmm7, %xmm7
  13476. vaesenc %xmm0, %xmm8, %xmm8
  13477. vaesenc %xmm0, %xmm9, %xmm9
  13478. vaesenc %xmm0, %xmm10, %xmm10
  13479. vaesenc %xmm0, %xmm11, %xmm11
  13480. vaesenc %xmm0, %xmm12, %xmm12
  13481. vaesenc %xmm0, %xmm13, %xmm13
  13482. vaesenc %xmm0, %xmm14, %xmm14
  13483. vaesenc %xmm0, %xmm15, %xmm15
  13484. # aesenc_pclmul_n
  13485. vmovdqu 64(%rcx), %xmm1
  13486. vmovdqu 48(%rsp), %xmm0
  13487. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
  13488. vpxor %xmm2, %xmm5, %xmm5
  13489. vpclmulqdq $16, %xmm0, %xmm1, %xmm2
  13490. vpxor %xmm3, %xmm5, %xmm5
  13491. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
  13492. vpxor %xmm4, %xmm6, %xmm6
  13493. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
  13494. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
  13495. vmovdqu 80(%rsi), %xmm0
  13496. vpxor %xmm1, %xmm7, %xmm7
  13497. vaesenc %xmm0, %xmm8, %xmm8
  13498. vaesenc %xmm0, %xmm9, %xmm9
  13499. vaesenc %xmm0, %xmm10, %xmm10
  13500. vaesenc %xmm0, %xmm11, %xmm11
  13501. vaesenc %xmm0, %xmm12, %xmm12
  13502. vaesenc %xmm0, %xmm13, %xmm13
  13503. vaesenc %xmm0, %xmm14, %xmm14
  13504. vaesenc %xmm0, %xmm15, %xmm15
  13505. # aesenc_pclmul_n
  13506. vmovdqu 80(%rcx), %xmm1
  13507. vmovdqu 32(%rsp), %xmm0
  13508. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
  13509. vpxor %xmm2, %xmm5, %xmm5
  13510. vpclmulqdq $16, %xmm0, %xmm1, %xmm2
  13511. vpxor %xmm3, %xmm5, %xmm5
  13512. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
  13513. vpxor %xmm4, %xmm6, %xmm6
  13514. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
  13515. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
  13516. vmovdqu 96(%rsi), %xmm0
  13517. vpxor %xmm1, %xmm7, %xmm7
  13518. vaesenc %xmm0, %xmm8, %xmm8
  13519. vaesenc %xmm0, %xmm9, %xmm9
  13520. vaesenc %xmm0, %xmm10, %xmm10
  13521. vaesenc %xmm0, %xmm11, %xmm11
  13522. vaesenc %xmm0, %xmm12, %xmm12
  13523. vaesenc %xmm0, %xmm13, %xmm13
  13524. vaesenc %xmm0, %xmm14, %xmm14
  13525. vaesenc %xmm0, %xmm15, %xmm15
  13526. # aesenc_pclmul_n
  13527. vmovdqu 96(%rcx), %xmm1
  13528. vmovdqu 16(%rsp), %xmm0
  13529. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
  13530. vpxor %xmm2, %xmm5, %xmm5
  13531. vpclmulqdq $16, %xmm0, %xmm1, %xmm2
  13532. vpxor %xmm3, %xmm5, %xmm5
  13533. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
  13534. vpxor %xmm4, %xmm6, %xmm6
  13535. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
  13536. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
  13537. vmovdqu 112(%rsi), %xmm0
  13538. vpxor %xmm1, %xmm7, %xmm7
  13539. vaesenc %xmm0, %xmm8, %xmm8
  13540. vaesenc %xmm0, %xmm9, %xmm9
  13541. vaesenc %xmm0, %xmm10, %xmm10
  13542. vaesenc %xmm0, %xmm11, %xmm11
  13543. vaesenc %xmm0, %xmm12, %xmm12
  13544. vaesenc %xmm0, %xmm13, %xmm13
  13545. vaesenc %xmm0, %xmm14, %xmm14
  13546. vaesenc %xmm0, %xmm15, %xmm15
  13547. # aesenc_pclmul_n
  13548. vmovdqu 112(%rcx), %xmm1
  13549. vmovdqu (%rsp), %xmm0
  13550. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
  13551. vpxor %xmm2, %xmm5, %xmm5
  13552. vpclmulqdq $16, %xmm0, %xmm1, %xmm2
  13553. vpxor %xmm3, %xmm5, %xmm5
  13554. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
  13555. vpxor %xmm4, %xmm6, %xmm6
  13556. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
  13557. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
  13558. vmovdqu 128(%rsi), %xmm0
  13559. vpxor %xmm1, %xmm7, %xmm7
  13560. vaesenc %xmm0, %xmm8, %xmm8
  13561. vaesenc %xmm0, %xmm9, %xmm9
  13562. vaesenc %xmm0, %xmm10, %xmm10
  13563. vaesenc %xmm0, %xmm11, %xmm11
  13564. vaesenc %xmm0, %xmm12, %xmm12
  13565. vaesenc %xmm0, %xmm13, %xmm13
  13566. vaesenc %xmm0, %xmm14, %xmm14
  13567. vaesenc %xmm0, %xmm15, %xmm15
  13568. # aesenc_pclmul_l
  13569. vpxor %xmm2, %xmm5, %xmm5
  13570. vpxor %xmm4, %xmm6, %xmm6
  13571. vpxor %xmm3, %xmm5, %xmm5
  13572. vpslldq $8, %xmm5, %xmm1
  13573. vpsrldq $8, %xmm5, %xmm5
  13574. vmovdqu 144(%rsi), %xmm4
  13575. vmovdqu L_avx2_aes_gcm_mod2_128(%rip), %xmm0
  13576. vaesenc %xmm4, %xmm8, %xmm8
  13577. vpxor %xmm1, %xmm6, %xmm6
  13578. vpxor %xmm5, %xmm7, %xmm7
  13579. vpclmulqdq $16, %xmm0, %xmm6, %xmm3
  13580. vaesenc %xmm4, %xmm9, %xmm9
  13581. vaesenc %xmm4, %xmm10, %xmm10
  13582. vaesenc %xmm4, %xmm11, %xmm11
  13583. vpshufd $0x4e, %xmm6, %xmm6
  13584. vpxor %xmm3, %xmm6, %xmm6
  13585. vpclmulqdq $16, %xmm0, %xmm6, %xmm3
  13586. vaesenc %xmm4, %xmm12, %xmm12
  13587. vaesenc %xmm4, %xmm13, %xmm13
  13588. vaesenc %xmm4, %xmm14, %xmm14
  13589. vpshufd $0x4e, %xmm6, %xmm6
  13590. vpxor %xmm3, %xmm6, %xmm6
  13591. vpxor %xmm7, %xmm6, %xmm6
  13592. vaesenc %xmm4, %xmm15, %xmm15
  13593. cmpl $11, %r9d
  13594. vmovdqu 160(%rsi), %xmm7
  13595. jl L_AES_GCM_decrypt_avx2_aesenc_128_ghash_avx_done
  13596. vaesenc %xmm7, %xmm8, %xmm8
  13597. vaesenc %xmm7, %xmm9, %xmm9
  13598. vaesenc %xmm7, %xmm10, %xmm10
  13599. vaesenc %xmm7, %xmm11, %xmm11
  13600. vaesenc %xmm7, %xmm12, %xmm12
  13601. vaesenc %xmm7, %xmm13, %xmm13
  13602. vaesenc %xmm7, %xmm14, %xmm14
  13603. vaesenc %xmm7, %xmm15, %xmm15
  13604. vmovdqu 176(%rsi), %xmm7
  13605. vaesenc %xmm7, %xmm8, %xmm8
  13606. vaesenc %xmm7, %xmm9, %xmm9
  13607. vaesenc %xmm7, %xmm10, %xmm10
  13608. vaesenc %xmm7, %xmm11, %xmm11
  13609. vaesenc %xmm7, %xmm12, %xmm12
  13610. vaesenc %xmm7, %xmm13, %xmm13
  13611. vaesenc %xmm7, %xmm14, %xmm14
  13612. vaesenc %xmm7, %xmm15, %xmm15
  13613. cmpl $13, %r9d
  13614. vmovdqu 192(%rsi), %xmm7
  13615. jl L_AES_GCM_decrypt_avx2_aesenc_128_ghash_avx_done
  13616. vaesenc %xmm7, %xmm8, %xmm8
  13617. vaesenc %xmm7, %xmm9, %xmm9
  13618. vaesenc %xmm7, %xmm10, %xmm10
  13619. vaesenc %xmm7, %xmm11, %xmm11
  13620. vaesenc %xmm7, %xmm12, %xmm12
  13621. vaesenc %xmm7, %xmm13, %xmm13
  13622. vaesenc %xmm7, %xmm14, %xmm14
  13623. vaesenc %xmm7, %xmm15, %xmm15
  13624. vmovdqu 208(%rsi), %xmm7
  13625. vaesenc %xmm7, %xmm8, %xmm8
  13626. vaesenc %xmm7, %xmm9, %xmm9
  13627. vaesenc %xmm7, %xmm10, %xmm10
  13628. vaesenc %xmm7, %xmm11, %xmm11
  13629. vaesenc %xmm7, %xmm12, %xmm12
  13630. vaesenc %xmm7, %xmm13, %xmm13
  13631. vaesenc %xmm7, %xmm14, %xmm14
  13632. vaesenc %xmm7, %xmm15, %xmm15
  13633. vmovdqu 224(%rsi), %xmm7
  13634. L_AES_GCM_decrypt_avx2_aesenc_128_ghash_avx_done:
  13635. # aesenc_last
  13636. vaesenclast %xmm7, %xmm8, %xmm8
  13637. vaesenclast %xmm7, %xmm9, %xmm9
  13638. vaesenclast %xmm7, %xmm10, %xmm10
  13639. vaesenclast %xmm7, %xmm11, %xmm11
  13640. vmovdqu (%rcx), %xmm0
  13641. vmovdqu 16(%rcx), %xmm1
  13642. vmovdqu 32(%rcx), %xmm2
  13643. vmovdqu 48(%rcx), %xmm3
  13644. vpxor %xmm0, %xmm8, %xmm8
  13645. vpxor %xmm1, %xmm9, %xmm9
  13646. vpxor %xmm2, %xmm10, %xmm10
  13647. vpxor %xmm3, %xmm11, %xmm11
  13648. vmovdqu %xmm8, (%rdx)
  13649. vmovdqu %xmm9, 16(%rdx)
  13650. vmovdqu %xmm10, 32(%rdx)
  13651. vmovdqu %xmm11, 48(%rdx)
  13652. vaesenclast %xmm7, %xmm12, %xmm12
  13653. vaesenclast %xmm7, %xmm13, %xmm13
  13654. vaesenclast %xmm7, %xmm14, %xmm14
  13655. vaesenclast %xmm7, %xmm15, %xmm15
  13656. vmovdqu 64(%rcx), %xmm0
  13657. vmovdqu 80(%rcx), %xmm1
  13658. vmovdqu 96(%rcx), %xmm2
  13659. vmovdqu 112(%rcx), %xmm3
  13660. vpxor %xmm0, %xmm12, %xmm12
  13661. vpxor %xmm1, %xmm13, %xmm13
  13662. vpxor %xmm2, %xmm14, %xmm14
  13663. vpxor %xmm3, %xmm15, %xmm15
  13664. vmovdqu %xmm12, 64(%rdx)
  13665. vmovdqu %xmm13, 80(%rdx)
  13666. vmovdqu %xmm14, 96(%rdx)
  13667. vmovdqu %xmm15, 112(%rdx)
  13668. # aesenc_128_ghash - end
  13669. addl $0x80, %ebx
  13670. cmpl %r13d, %ebx
  13671. jl L_AES_GCM_decrypt_avx2_ghash_128
  13672. vmovdqu (%rsp), %xmm5
  13673. vmovdqu 128(%rsp), %xmm4
  13674. vmovdqu 144(%rsp), %xmm15
  13675. L_AES_GCM_decrypt_avx2_done_128:
  13676. cmpl %r10d, %ebx
  13677. jge L_AES_GCM_decrypt_avx2_done_dec
  13678. movl %r10d, %r13d
  13679. andl $0xfffffff0, %r13d
  13680. cmpl %r13d, %ebx
  13681. jge L_AES_GCM_decrypt_avx2_last_block_done
  13682. L_AES_GCM_decrypt_avx2_last_block_start:
  13683. vmovdqu (%rdi,%rbx,1), %xmm11
  13684. vpshufb L_avx2_aes_gcm_bswap_epi64(%rip), %xmm4, %xmm10
  13685. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm11, %xmm12
  13686. vpaddd L_avx2_aes_gcm_one(%rip), %xmm4, %xmm4
  13687. vpxor %xmm6, %xmm12, %xmm12
  13688. # aesenc_gfmul_sb
  13689. vpclmulqdq $0x01, %xmm5, %xmm12, %xmm2
  13690. vpclmulqdq $16, %xmm5, %xmm12, %xmm3
  13691. vpclmulqdq $0x00, %xmm5, %xmm12, %xmm1
  13692. vpclmulqdq $0x11, %xmm5, %xmm12, %xmm8
  13693. vpxor (%rsi), %xmm10, %xmm10
  13694. vaesenc 16(%rsi), %xmm10, %xmm10
  13695. vpxor %xmm2, %xmm3, %xmm3
  13696. vpslldq $8, %xmm3, %xmm2
  13697. vpsrldq $8, %xmm3, %xmm3
  13698. vaesenc 32(%rsi), %xmm10, %xmm10
  13699. vpxor %xmm1, %xmm2, %xmm2
  13700. vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm2, %xmm1
  13701. vaesenc 48(%rsi), %xmm10, %xmm10
  13702. vaesenc 64(%rsi), %xmm10, %xmm10
  13703. vaesenc 80(%rsi), %xmm10, %xmm10
  13704. vpshufd $0x4e, %xmm2, %xmm2
  13705. vpxor %xmm1, %xmm2, %xmm2
  13706. vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm2, %xmm1
  13707. vaesenc 96(%rsi), %xmm10, %xmm10
  13708. vaesenc 112(%rsi), %xmm10, %xmm10
  13709. vaesenc 128(%rsi), %xmm10, %xmm10
  13710. vpshufd $0x4e, %xmm2, %xmm2
  13711. vaesenc 144(%rsi), %xmm10, %xmm10
  13712. vpxor %xmm3, %xmm8, %xmm8
  13713. vpxor %xmm8, %xmm2, %xmm2
  13714. vmovdqu 160(%rsi), %xmm0
  13715. cmpl $11, %r9d
  13716. jl L_AES_GCM_decrypt_avx2_aesenc_gfmul_sb_last
  13717. vaesenc %xmm0, %xmm10, %xmm10
  13718. vaesenc 176(%rsi), %xmm10, %xmm10
  13719. vmovdqu 192(%rsi), %xmm0
  13720. cmpl $13, %r9d
  13721. jl L_AES_GCM_decrypt_avx2_aesenc_gfmul_sb_last
  13722. vaesenc %xmm0, %xmm10, %xmm10
  13723. vaesenc 208(%rsi), %xmm10, %xmm10
  13724. vmovdqu 224(%rsi), %xmm0
  13725. L_AES_GCM_decrypt_avx2_aesenc_gfmul_sb_last:
  13726. vaesenclast %xmm0, %xmm10, %xmm10
  13727. vpxor %xmm1, %xmm2, %xmm6
  13728. vpxor %xmm11, %xmm10, %xmm10
  13729. vmovdqu %xmm10, (%r8,%rbx,1)
  13730. addl $16, %ebx
  13731. cmpl %r13d, %ebx
  13732. jl L_AES_GCM_decrypt_avx2_last_block_start
  13733. L_AES_GCM_decrypt_avx2_last_block_done:
  13734. movl %r10d, %ecx
  13735. movl %r10d, %edx
  13736. andl $15, %ecx
  13737. jz L_AES_GCM_decrypt_avx2_done_dec
  13738. # aesenc_last15_dec
  13739. vpshufb L_avx2_aes_gcm_bswap_epi64(%rip), %xmm4, %xmm4
  13740. vpxor (%rsi), %xmm4, %xmm4
  13741. vaesenc 16(%rsi), %xmm4, %xmm4
  13742. vaesenc 32(%rsi), %xmm4, %xmm4
  13743. vaesenc 48(%rsi), %xmm4, %xmm4
  13744. vaesenc 64(%rsi), %xmm4, %xmm4
  13745. vaesenc 80(%rsi), %xmm4, %xmm4
  13746. vaesenc 96(%rsi), %xmm4, %xmm4
  13747. vaesenc 112(%rsi), %xmm4, %xmm4
  13748. vaesenc 128(%rsi), %xmm4, %xmm4
  13749. vaesenc 144(%rsi), %xmm4, %xmm4
  13750. cmpl $11, %r9d
  13751. vmovdqu 160(%rsi), %xmm1
  13752. jl L_AES_GCM_decrypt_avx2_aesenc_last15_dec_avx_aesenc_avx_last
  13753. vaesenc %xmm1, %xmm4, %xmm4
  13754. vaesenc 176(%rsi), %xmm4, %xmm4
  13755. cmpl $13, %r9d
  13756. vmovdqu 192(%rsi), %xmm1
  13757. jl L_AES_GCM_decrypt_avx2_aesenc_last15_dec_avx_aesenc_avx_last
  13758. vaesenc %xmm1, %xmm4, %xmm4
  13759. vaesenc 208(%rsi), %xmm4, %xmm4
  13760. vmovdqu 224(%rsi), %xmm1
  13761. L_AES_GCM_decrypt_avx2_aesenc_last15_dec_avx_aesenc_avx_last:
  13762. vaesenclast %xmm1, %xmm4, %xmm4
  13763. xorl %ecx, %ecx
  13764. vpxor %xmm0, %xmm0, %xmm0
  13765. vmovdqu %xmm4, (%rsp)
  13766. vmovdqu %xmm0, 16(%rsp)
  13767. L_AES_GCM_decrypt_avx2_aesenc_last15_dec_avx_loop:
  13768. movzbl (%rdi,%rbx,1), %r13d
  13769. movb %r13b, 16(%rsp,%rcx,1)
  13770. xorb (%rsp,%rcx,1), %r13b
  13771. movb %r13b, (%r8,%rbx,1)
  13772. incl %ebx
  13773. incl %ecx
  13774. cmpl %edx, %ebx
  13775. jl L_AES_GCM_decrypt_avx2_aesenc_last15_dec_avx_loop
  13776. vmovdqu 16(%rsp), %xmm4
  13777. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm4, %xmm4
  13778. vpxor %xmm4, %xmm6, %xmm6
  13779. # ghash_gfmul_red
  13780. vpclmulqdq $16, %xmm5, %xmm6, %xmm2
  13781. vpclmulqdq $0x01, %xmm5, %xmm6, %xmm1
  13782. vpclmulqdq $0x00, %xmm5, %xmm6, %xmm0
  13783. vpxor %xmm1, %xmm2, %xmm2
  13784. vpslldq $8, %xmm2, %xmm1
  13785. vpsrldq $8, %xmm2, %xmm2
  13786. vpxor %xmm0, %xmm1, %xmm1
  13787. vpclmulqdq $0x11, %xmm5, %xmm6, %xmm6
  13788. vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm1, %xmm0
  13789. vpshufd $0x4e, %xmm1, %xmm1
  13790. vpxor %xmm0, %xmm1, %xmm1
  13791. vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm1, %xmm0
  13792. vpshufd $0x4e, %xmm1, %xmm1
  13793. vpxor %xmm2, %xmm6, %xmm6
  13794. vpxor %xmm1, %xmm6, %xmm6
  13795. vpxor %xmm0, %xmm6, %xmm6
  13796. L_AES_GCM_decrypt_avx2_done_dec:
  13797. # calc_tag
  13798. shlq $3, %r10
  13799. vpinsrq $0x00, %r10, %xmm0, %xmm0
  13800. shlq $3, %r11
  13801. vpinsrq $0x01, %r11, %xmm1, %xmm1
  13802. vpblendd $12, %xmm1, %xmm0, %xmm0
  13803. vpxor %xmm6, %xmm0, %xmm0
  13804. # ghash_gfmul_red
  13805. vpclmulqdq $16, %xmm5, %xmm0, %xmm4
  13806. vpclmulqdq $0x01, %xmm5, %xmm0, %xmm3
  13807. vpclmulqdq $0x00, %xmm5, %xmm0, %xmm2
  13808. vpxor %xmm3, %xmm4, %xmm4
  13809. vpslldq $8, %xmm4, %xmm3
  13810. vpsrldq $8, %xmm4, %xmm4
  13811. vpxor %xmm2, %xmm3, %xmm3
  13812. vpclmulqdq $0x11, %xmm5, %xmm0, %xmm0
  13813. vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm3, %xmm2
  13814. vpshufd $0x4e, %xmm3, %xmm3
  13815. vpxor %xmm2, %xmm3, %xmm3
  13816. vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm3, %xmm2
  13817. vpshufd $0x4e, %xmm3, %xmm3
  13818. vpxor %xmm4, %xmm0, %xmm0
  13819. vpxor %xmm3, %xmm0, %xmm0
  13820. vpxor %xmm2, %xmm0, %xmm0
  13821. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  13822. vpxor %xmm15, %xmm0, %xmm0
  13823. # cmp_tag
  13824. cmpl $16, %r15d
  13825. je L_AES_GCM_decrypt_avx2_cmp_tag_16
  13826. xorq %rdx, %rdx
  13827. xorq %rax, %rax
  13828. vmovdqu %xmm0, (%rsp)
  13829. L_AES_GCM_decrypt_avx2_cmp_tag_loop:
  13830. movzbl (%rsp,%rdx,1), %r13d
  13831. xorb (%r14,%rdx,1), %r13b
  13832. orb %r13b, %al
  13833. incl %edx
  13834. cmpl %r15d, %edx
  13835. jne L_AES_GCM_decrypt_avx2_cmp_tag_loop
  13836. cmpb $0x00, %al
  13837. sete %al
  13838. jmp L_AES_GCM_decrypt_avx2_cmp_tag_done
  13839. L_AES_GCM_decrypt_avx2_cmp_tag_16:
  13840. vmovdqu (%r14), %xmm1
  13841. vpcmpeqb %xmm1, %xmm0, %xmm0
  13842. vpmovmskb %xmm0, %rdx
  13843. # %%edx == 0xFFFF then return 1 else => return 0
  13844. xorl %eax, %eax
  13845. cmpl $0xffff, %edx
  13846. sete %al
  13847. L_AES_GCM_decrypt_avx2_cmp_tag_done:
  13848. movl %eax, (%rbp)
  13849. vzeroupper
  13850. addq $0xa8, %rsp
  13851. popq %rbp
  13852. popq %r15
  13853. popq %rbx
  13854. popq %r14
  13855. popq %r12
  13856. popq %r13
  13857. repz retq
  13858. #ifndef __APPLE__
  13859. .size AES_GCM_decrypt_avx2,.-AES_GCM_decrypt_avx2
  13860. #endif /* __APPLE__ */
  13861. #ifdef WOLFSSL_AESGCM_STREAM
  13862. #ifndef __APPLE__
  13863. .text
  13864. .globl AES_GCM_init_avx2
  13865. .type AES_GCM_init_avx2,@function
  13866. .align 16
  13867. AES_GCM_init_avx2:
  13868. #else
  13869. .section __TEXT,__text
  13870. .globl _AES_GCM_init_avx2
  13871. .p2align 4
  13872. _AES_GCM_init_avx2:
  13873. #endif /* __APPLE__ */
  13874. pushq %rbx
  13875. pushq %r12
  13876. movq %rdx, %r10
  13877. movl %ecx, %r11d
  13878. movq 24(%rsp), %rax
  13879. subq $16, %rsp
  13880. vpxor %xmm4, %xmm4, %xmm4
  13881. movl %r11d, %edx
  13882. cmpl $12, %edx
  13883. je L_AES_GCM_init_avx2_iv_12
  13884. # Calculate values when IV is not 12 bytes
  13885. # H = Encrypt X(=0)
  13886. vmovdqu (%rdi), %xmm5
  13887. vaesenc 16(%rdi), %xmm5, %xmm5
  13888. vaesenc 32(%rdi), %xmm5, %xmm5
  13889. vaesenc 48(%rdi), %xmm5, %xmm5
  13890. vaesenc 64(%rdi), %xmm5, %xmm5
  13891. vaesenc 80(%rdi), %xmm5, %xmm5
  13892. vaesenc 96(%rdi), %xmm5, %xmm5
  13893. vaesenc 112(%rdi), %xmm5, %xmm5
  13894. vaesenc 128(%rdi), %xmm5, %xmm5
  13895. vaesenc 144(%rdi), %xmm5, %xmm5
  13896. cmpl $11, %esi
  13897. vmovdqu 160(%rdi), %xmm0
  13898. jl L_AES_GCM_init_avx2_calc_iv_1_aesenc_avx_last
  13899. vaesenc %xmm0, %xmm5, %xmm5
  13900. vaesenc 176(%rdi), %xmm5, %xmm5
  13901. cmpl $13, %esi
  13902. vmovdqu 192(%rdi), %xmm0
  13903. jl L_AES_GCM_init_avx2_calc_iv_1_aesenc_avx_last
  13904. vaesenc %xmm0, %xmm5, %xmm5
  13905. vaesenc 208(%rdi), %xmm5, %xmm5
  13906. vmovdqu 224(%rdi), %xmm0
  13907. L_AES_GCM_init_avx2_calc_iv_1_aesenc_avx_last:
  13908. vaesenclast %xmm0, %xmm5, %xmm5
  13909. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm5, %xmm5
  13910. # Calc counter
  13911. # Initialization vector
  13912. cmpl $0x00, %edx
  13913. movq $0x00, %rcx
  13914. je L_AES_GCM_init_avx2_calc_iv_done
  13915. cmpl $16, %edx
  13916. jl L_AES_GCM_init_avx2_calc_iv_lt16
  13917. andl $0xfffffff0, %edx
  13918. L_AES_GCM_init_avx2_calc_iv_16_loop:
  13919. vmovdqu (%r10,%rcx,1), %xmm0
  13920. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  13921. vpxor %xmm0, %xmm4, %xmm4
  13922. # ghash_gfmul_avx
  13923. vpclmulqdq $16, %xmm4, %xmm5, %xmm2
  13924. vpclmulqdq $0x01, %xmm4, %xmm5, %xmm1
  13925. vpclmulqdq $0x00, %xmm4, %xmm5, %xmm0
  13926. vpclmulqdq $0x11, %xmm4, %xmm5, %xmm3
  13927. vpxor %xmm1, %xmm2, %xmm2
  13928. vpslldq $8, %xmm2, %xmm1
  13929. vpsrldq $8, %xmm2, %xmm2
  13930. vpxor %xmm1, %xmm0, %xmm6
  13931. vpxor %xmm2, %xmm3, %xmm4
  13932. # ghash_mid
  13933. vpsrld $31, %xmm6, %xmm0
  13934. vpsrld $31, %xmm4, %xmm1
  13935. vpslld $0x01, %xmm6, %xmm6
  13936. vpslld $0x01, %xmm4, %xmm4
  13937. vpsrldq $12, %xmm0, %xmm2
  13938. vpslldq $4, %xmm0, %xmm0
  13939. vpslldq $4, %xmm1, %xmm1
  13940. vpor %xmm2, %xmm4, %xmm4
  13941. vpor %xmm0, %xmm6, %xmm6
  13942. vpor %xmm1, %xmm4, %xmm4
  13943. # ghash_red
  13944. vmovdqu L_avx2_aes_gcm_mod2_128(%rip), %xmm2
  13945. vpclmulqdq $16, %xmm2, %xmm6, %xmm0
  13946. vpshufd $0x4e, %xmm6, %xmm1
  13947. vpxor %xmm0, %xmm1, %xmm1
  13948. vpclmulqdq $16, %xmm2, %xmm1, %xmm0
  13949. vpshufd $0x4e, %xmm1, %xmm1
  13950. vpxor %xmm0, %xmm1, %xmm1
  13951. vpxor %xmm1, %xmm4, %xmm4
  13952. addl $16, %ecx
  13953. cmpl %edx, %ecx
  13954. jl L_AES_GCM_init_avx2_calc_iv_16_loop
  13955. movl %r11d, %edx
  13956. cmpl %edx, %ecx
  13957. je L_AES_GCM_init_avx2_calc_iv_done
  13958. L_AES_GCM_init_avx2_calc_iv_lt16:
  13959. vpxor %xmm0, %xmm0, %xmm0
  13960. xorl %ebx, %ebx
  13961. vmovdqu %xmm0, (%rsp)
  13962. L_AES_GCM_init_avx2_calc_iv_loop:
  13963. movzbl (%r10,%rcx,1), %r12d
  13964. movb %r12b, (%rsp,%rbx,1)
  13965. incl %ecx
  13966. incl %ebx
  13967. cmpl %edx, %ecx
  13968. jl L_AES_GCM_init_avx2_calc_iv_loop
  13969. vmovdqu (%rsp), %xmm0
  13970. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  13971. vpxor %xmm0, %xmm4, %xmm4
  13972. # ghash_gfmul_avx
  13973. vpclmulqdq $16, %xmm4, %xmm5, %xmm2
  13974. vpclmulqdq $0x01, %xmm4, %xmm5, %xmm1
  13975. vpclmulqdq $0x00, %xmm4, %xmm5, %xmm0
  13976. vpclmulqdq $0x11, %xmm4, %xmm5, %xmm3
  13977. vpxor %xmm1, %xmm2, %xmm2
  13978. vpslldq $8, %xmm2, %xmm1
  13979. vpsrldq $8, %xmm2, %xmm2
  13980. vpxor %xmm1, %xmm0, %xmm6
  13981. vpxor %xmm2, %xmm3, %xmm4
  13982. # ghash_mid
  13983. vpsrld $31, %xmm6, %xmm0
  13984. vpsrld $31, %xmm4, %xmm1
  13985. vpslld $0x01, %xmm6, %xmm6
  13986. vpslld $0x01, %xmm4, %xmm4
  13987. vpsrldq $12, %xmm0, %xmm2
  13988. vpslldq $4, %xmm0, %xmm0
  13989. vpslldq $4, %xmm1, %xmm1
  13990. vpor %xmm2, %xmm4, %xmm4
  13991. vpor %xmm0, %xmm6, %xmm6
  13992. vpor %xmm1, %xmm4, %xmm4
  13993. # ghash_red
  13994. vmovdqu L_avx2_aes_gcm_mod2_128(%rip), %xmm2
  13995. vpclmulqdq $16, %xmm2, %xmm6, %xmm0
  13996. vpshufd $0x4e, %xmm6, %xmm1
  13997. vpxor %xmm0, %xmm1, %xmm1
  13998. vpclmulqdq $16, %xmm2, %xmm1, %xmm0
  13999. vpshufd $0x4e, %xmm1, %xmm1
  14000. vpxor %xmm0, %xmm1, %xmm1
  14001. vpxor %xmm1, %xmm4, %xmm4
  14002. L_AES_GCM_init_avx2_calc_iv_done:
  14003. # T = Encrypt counter
  14004. vpxor %xmm0, %xmm0, %xmm0
  14005. shll $3, %edx
  14006. vpinsrq $0x00, %rdx, %xmm0, %xmm0
  14007. vpxor %xmm0, %xmm4, %xmm4
  14008. # ghash_gfmul_avx
  14009. vpclmulqdq $16, %xmm4, %xmm5, %xmm2
  14010. vpclmulqdq $0x01, %xmm4, %xmm5, %xmm1
  14011. vpclmulqdq $0x00, %xmm4, %xmm5, %xmm0
  14012. vpclmulqdq $0x11, %xmm4, %xmm5, %xmm3
  14013. vpxor %xmm1, %xmm2, %xmm2
  14014. vpslldq $8, %xmm2, %xmm1
  14015. vpsrldq $8, %xmm2, %xmm2
  14016. vpxor %xmm1, %xmm0, %xmm6
  14017. vpxor %xmm2, %xmm3, %xmm4
  14018. # ghash_mid
  14019. vpsrld $31, %xmm6, %xmm0
  14020. vpsrld $31, %xmm4, %xmm1
  14021. vpslld $0x01, %xmm6, %xmm6
  14022. vpslld $0x01, %xmm4, %xmm4
  14023. vpsrldq $12, %xmm0, %xmm2
  14024. vpslldq $4, %xmm0, %xmm0
  14025. vpslldq $4, %xmm1, %xmm1
  14026. vpor %xmm2, %xmm4, %xmm4
  14027. vpor %xmm0, %xmm6, %xmm6
  14028. vpor %xmm1, %xmm4, %xmm4
  14029. # ghash_red
  14030. vmovdqu L_avx2_aes_gcm_mod2_128(%rip), %xmm2
  14031. vpclmulqdq $16, %xmm2, %xmm6, %xmm0
  14032. vpshufd $0x4e, %xmm6, %xmm1
  14033. vpxor %xmm0, %xmm1, %xmm1
  14034. vpclmulqdq $16, %xmm2, %xmm1, %xmm0
  14035. vpshufd $0x4e, %xmm1, %xmm1
  14036. vpxor %xmm0, %xmm1, %xmm1
  14037. vpxor %xmm1, %xmm4, %xmm4
  14038. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm4, %xmm4
  14039. # Encrypt counter
  14040. vmovdqu (%rdi), %xmm7
  14041. vpxor %xmm4, %xmm7, %xmm7
  14042. vaesenc 16(%rdi), %xmm7, %xmm7
  14043. vaesenc 32(%rdi), %xmm7, %xmm7
  14044. vaesenc 48(%rdi), %xmm7, %xmm7
  14045. vaesenc 64(%rdi), %xmm7, %xmm7
  14046. vaesenc 80(%rdi), %xmm7, %xmm7
  14047. vaesenc 96(%rdi), %xmm7, %xmm7
  14048. vaesenc 112(%rdi), %xmm7, %xmm7
  14049. vaesenc 128(%rdi), %xmm7, %xmm7
  14050. vaesenc 144(%rdi), %xmm7, %xmm7
  14051. cmpl $11, %esi
  14052. vmovdqu 160(%rdi), %xmm0
  14053. jl L_AES_GCM_init_avx2_calc_iv_2_aesenc_avx_last
  14054. vaesenc %xmm0, %xmm7, %xmm7
  14055. vaesenc 176(%rdi), %xmm7, %xmm7
  14056. cmpl $13, %esi
  14057. vmovdqu 192(%rdi), %xmm0
  14058. jl L_AES_GCM_init_avx2_calc_iv_2_aesenc_avx_last
  14059. vaesenc %xmm0, %xmm7, %xmm7
  14060. vaesenc 208(%rdi), %xmm7, %xmm7
  14061. vmovdqu 224(%rdi), %xmm0
  14062. L_AES_GCM_init_avx2_calc_iv_2_aesenc_avx_last:
  14063. vaesenclast %xmm0, %xmm7, %xmm7
  14064. jmp L_AES_GCM_init_avx2_iv_done
  14065. L_AES_GCM_init_avx2_iv_12:
  14066. # # Calculate values when IV is 12 bytes
  14067. # Set counter based on IV
  14068. vmovdqu L_avx2_aes_gcm_bswap_one(%rip), %xmm4
  14069. vmovdqu (%rdi), %xmm5
  14070. vpblendd $7, (%r10), %xmm4, %xmm4
  14071. # H = Encrypt X(=0) and T = Encrypt counter
  14072. vmovdqu 16(%rdi), %xmm6
  14073. vpxor %xmm5, %xmm4, %xmm7
  14074. vaesenc %xmm6, %xmm5, %xmm5
  14075. vaesenc %xmm6, %xmm7, %xmm7
  14076. vmovdqu 32(%rdi), %xmm0
  14077. vaesenc %xmm0, %xmm5, %xmm5
  14078. vaesenc %xmm0, %xmm7, %xmm7
  14079. vmovdqu 48(%rdi), %xmm0
  14080. vaesenc %xmm0, %xmm5, %xmm5
  14081. vaesenc %xmm0, %xmm7, %xmm7
  14082. vmovdqu 64(%rdi), %xmm0
  14083. vaesenc %xmm0, %xmm5, %xmm5
  14084. vaesenc %xmm0, %xmm7, %xmm7
  14085. vmovdqu 80(%rdi), %xmm0
  14086. vaesenc %xmm0, %xmm5, %xmm5
  14087. vaesenc %xmm0, %xmm7, %xmm7
  14088. vmovdqu 96(%rdi), %xmm0
  14089. vaesenc %xmm0, %xmm5, %xmm5
  14090. vaesenc %xmm0, %xmm7, %xmm7
  14091. vmovdqu 112(%rdi), %xmm0
  14092. vaesenc %xmm0, %xmm5, %xmm5
  14093. vaesenc %xmm0, %xmm7, %xmm7
  14094. vmovdqu 128(%rdi), %xmm0
  14095. vaesenc %xmm0, %xmm5, %xmm5
  14096. vaesenc %xmm0, %xmm7, %xmm7
  14097. vmovdqu 144(%rdi), %xmm0
  14098. vaesenc %xmm0, %xmm5, %xmm5
  14099. vaesenc %xmm0, %xmm7, %xmm7
  14100. cmpl $11, %esi
  14101. vmovdqu 160(%rdi), %xmm0
  14102. jl L_AES_GCM_init_avx2_calc_iv_12_last
  14103. vaesenc %xmm0, %xmm5, %xmm5
  14104. vaesenc %xmm0, %xmm7, %xmm7
  14105. vmovdqu 176(%rdi), %xmm0
  14106. vaesenc %xmm0, %xmm5, %xmm5
  14107. vaesenc %xmm0, %xmm7, %xmm7
  14108. cmpl $13, %esi
  14109. vmovdqu 192(%rdi), %xmm0
  14110. jl L_AES_GCM_init_avx2_calc_iv_12_last
  14111. vaesenc %xmm0, %xmm5, %xmm5
  14112. vaesenc %xmm0, %xmm7, %xmm7
  14113. vmovdqu 208(%rdi), %xmm0
  14114. vaesenc %xmm0, %xmm5, %xmm5
  14115. vaesenc %xmm0, %xmm7, %xmm7
  14116. vmovdqu 224(%rdi), %xmm0
  14117. L_AES_GCM_init_avx2_calc_iv_12_last:
  14118. vaesenclast %xmm0, %xmm5, %xmm5
  14119. vaesenclast %xmm0, %xmm7, %xmm7
  14120. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm5, %xmm5
  14121. L_AES_GCM_init_avx2_iv_done:
  14122. vmovdqu %xmm7, (%rax)
  14123. vpshufb L_avx2_aes_gcm_bswap_epi64(%rip), %xmm4, %xmm4
  14124. vpaddd L_avx2_aes_gcm_one(%rip), %xmm4, %xmm4
  14125. vmovdqu %xmm5, (%r8)
  14126. vmovdqu %xmm4, (%r9)
  14127. vzeroupper
  14128. addq $16, %rsp
  14129. popq %r12
  14130. popq %rbx
  14131. repz retq
  14132. #ifndef __APPLE__
  14133. .size AES_GCM_init_avx2,.-AES_GCM_init_avx2
  14134. #endif /* __APPLE__ */
  14135. #ifndef __APPLE__
  14136. .text
  14137. .globl AES_GCM_aad_update_avx2
  14138. .type AES_GCM_aad_update_avx2,@function
  14139. .align 16
  14140. AES_GCM_aad_update_avx2:
  14141. #else
  14142. .section __TEXT,__text
  14143. .globl _AES_GCM_aad_update_avx2
  14144. .p2align 4
  14145. _AES_GCM_aad_update_avx2:
  14146. #endif /* __APPLE__ */
  14147. movq %rcx, %rax
  14148. vmovdqu (%rdx), %xmm4
  14149. vmovdqu (%rax), %xmm5
  14150. xorl %ecx, %ecx
  14151. L_AES_GCM_aad_update_avx2_16_loop:
  14152. vmovdqu (%rdi,%rcx,1), %xmm0
  14153. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  14154. vpxor %xmm0, %xmm4, %xmm4
  14155. # ghash_gfmul_avx
  14156. vpclmulqdq $16, %xmm4, %xmm5, %xmm2
  14157. vpclmulqdq $0x01, %xmm4, %xmm5, %xmm1
  14158. vpclmulqdq $0x00, %xmm4, %xmm5, %xmm0
  14159. vpclmulqdq $0x11, %xmm4, %xmm5, %xmm3
  14160. vpxor %xmm1, %xmm2, %xmm2
  14161. vpslldq $8, %xmm2, %xmm1
  14162. vpsrldq $8, %xmm2, %xmm2
  14163. vpxor %xmm1, %xmm0, %xmm6
  14164. vpxor %xmm2, %xmm3, %xmm4
  14165. # ghash_mid
  14166. vpsrld $31, %xmm6, %xmm0
  14167. vpsrld $31, %xmm4, %xmm1
  14168. vpslld $0x01, %xmm6, %xmm6
  14169. vpslld $0x01, %xmm4, %xmm4
  14170. vpsrldq $12, %xmm0, %xmm2
  14171. vpslldq $4, %xmm0, %xmm0
  14172. vpslldq $4, %xmm1, %xmm1
  14173. vpor %xmm2, %xmm4, %xmm4
  14174. vpor %xmm0, %xmm6, %xmm6
  14175. vpor %xmm1, %xmm4, %xmm4
  14176. # ghash_red
  14177. vmovdqu L_avx2_aes_gcm_mod2_128(%rip), %xmm2
  14178. vpclmulqdq $16, %xmm2, %xmm6, %xmm0
  14179. vpshufd $0x4e, %xmm6, %xmm1
  14180. vpxor %xmm0, %xmm1, %xmm1
  14181. vpclmulqdq $16, %xmm2, %xmm1, %xmm0
  14182. vpshufd $0x4e, %xmm1, %xmm1
  14183. vpxor %xmm0, %xmm1, %xmm1
  14184. vpxor %xmm1, %xmm4, %xmm4
  14185. addl $16, %ecx
  14186. cmpl %esi, %ecx
  14187. jl L_AES_GCM_aad_update_avx2_16_loop
  14188. vmovdqu %xmm4, (%rdx)
  14189. vzeroupper
  14190. repz retq
  14191. #ifndef __APPLE__
  14192. .size AES_GCM_aad_update_avx2,.-AES_GCM_aad_update_avx2
  14193. #endif /* __APPLE__ */
  14194. #ifndef __APPLE__
  14195. .text
  14196. .globl AES_GCM_encrypt_block_avx2
  14197. .type AES_GCM_encrypt_block_avx2,@function
  14198. .align 16
  14199. AES_GCM_encrypt_block_avx2:
  14200. #else
  14201. .section __TEXT,__text
  14202. .globl _AES_GCM_encrypt_block_avx2
  14203. .p2align 4
  14204. _AES_GCM_encrypt_block_avx2:
  14205. #endif /* __APPLE__ */
  14206. movq %rdx, %r10
  14207. movq %rcx, %r11
  14208. subq $0x98, %rsp
  14209. vmovdqu (%r8), %xmm3
  14210. # aesenc_block
  14211. vmovdqu %xmm3, %xmm1
  14212. vpshufb L_avx2_aes_gcm_bswap_epi64(%rip), %xmm1, %xmm0
  14213. vpaddd L_avx2_aes_gcm_one(%rip), %xmm1, %xmm1
  14214. vpxor (%rdi), %xmm0, %xmm0
  14215. vmovdqu 16(%rdi), %xmm2
  14216. vaesenc %xmm2, %xmm0, %xmm0
  14217. vmovdqu 32(%rdi), %xmm2
  14218. vaesenc %xmm2, %xmm0, %xmm0
  14219. vmovdqu 48(%rdi), %xmm2
  14220. vaesenc %xmm2, %xmm0, %xmm0
  14221. vmovdqu 64(%rdi), %xmm2
  14222. vaesenc %xmm2, %xmm0, %xmm0
  14223. vmovdqu 80(%rdi), %xmm2
  14224. vaesenc %xmm2, %xmm0, %xmm0
  14225. vmovdqu 96(%rdi), %xmm2
  14226. vaesenc %xmm2, %xmm0, %xmm0
  14227. vmovdqu 112(%rdi), %xmm2
  14228. vaesenc %xmm2, %xmm0, %xmm0
  14229. vmovdqu 128(%rdi), %xmm2
  14230. vaesenc %xmm2, %xmm0, %xmm0
  14231. vmovdqu 144(%rdi), %xmm2
  14232. vaesenc %xmm2, %xmm0, %xmm0
  14233. vmovdqu %xmm1, %xmm3
  14234. cmpl $11, %esi
  14235. vmovdqu 160(%rdi), %xmm1
  14236. jl L_AES_GCM_encrypt_block_avx2_aesenc_block_last
  14237. vaesenc %xmm1, %xmm0, %xmm0
  14238. vmovdqu 176(%rdi), %xmm2
  14239. vaesenc %xmm2, %xmm0, %xmm0
  14240. cmpl $13, %esi
  14241. vmovdqu 192(%rdi), %xmm1
  14242. jl L_AES_GCM_encrypt_block_avx2_aesenc_block_last
  14243. vaesenc %xmm1, %xmm0, %xmm0
  14244. vmovdqu 208(%rdi), %xmm2
  14245. vaesenc %xmm2, %xmm0, %xmm0
  14246. vmovdqu 224(%rdi), %xmm1
  14247. L_AES_GCM_encrypt_block_avx2_aesenc_block_last:
  14248. vaesenclast %xmm1, %xmm0, %xmm0
  14249. vmovdqu (%r11), %xmm1
  14250. vpxor %xmm1, %xmm0, %xmm0
  14251. vmovdqu %xmm0, (%r10)
  14252. vmovdqu %xmm3, (%r8)
  14253. vzeroupper
  14254. addq $0x98, %rsp
  14255. repz retq
  14256. #ifndef __APPLE__
  14257. .size AES_GCM_encrypt_block_avx2,.-AES_GCM_encrypt_block_avx2
  14258. #endif /* __APPLE__ */
  14259. #ifndef __APPLE__
  14260. .text
  14261. .globl AES_GCM_ghash_block_avx2
  14262. .type AES_GCM_ghash_block_avx2,@function
  14263. .align 16
  14264. AES_GCM_ghash_block_avx2:
  14265. #else
  14266. .section __TEXT,__text
  14267. .globl _AES_GCM_ghash_block_avx2
  14268. .p2align 4
  14269. _AES_GCM_ghash_block_avx2:
  14270. #endif /* __APPLE__ */
  14271. vmovdqu (%rsi), %xmm4
  14272. vmovdqu (%rdx), %xmm5
  14273. vmovdqu (%rdi), %xmm0
  14274. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  14275. vpxor %xmm0, %xmm4, %xmm4
  14276. # ghash_gfmul_avx
  14277. vpclmulqdq $16, %xmm4, %xmm5, %xmm2
  14278. vpclmulqdq $0x01, %xmm4, %xmm5, %xmm1
  14279. vpclmulqdq $0x00, %xmm4, %xmm5, %xmm0
  14280. vpclmulqdq $0x11, %xmm4, %xmm5, %xmm3
  14281. vpxor %xmm1, %xmm2, %xmm2
  14282. vpslldq $8, %xmm2, %xmm1
  14283. vpsrldq $8, %xmm2, %xmm2
  14284. vpxor %xmm1, %xmm0, %xmm6
  14285. vpxor %xmm2, %xmm3, %xmm4
  14286. # ghash_mid
  14287. vpsrld $31, %xmm6, %xmm0
  14288. vpsrld $31, %xmm4, %xmm1
  14289. vpslld $0x01, %xmm6, %xmm6
  14290. vpslld $0x01, %xmm4, %xmm4
  14291. vpsrldq $12, %xmm0, %xmm2
  14292. vpslldq $4, %xmm0, %xmm0
  14293. vpslldq $4, %xmm1, %xmm1
  14294. vpor %xmm2, %xmm4, %xmm4
  14295. vpor %xmm0, %xmm6, %xmm6
  14296. vpor %xmm1, %xmm4, %xmm4
  14297. # ghash_red
  14298. vmovdqu L_avx2_aes_gcm_mod2_128(%rip), %xmm2
  14299. vpclmulqdq $16, %xmm2, %xmm6, %xmm0
  14300. vpshufd $0x4e, %xmm6, %xmm1
  14301. vpxor %xmm0, %xmm1, %xmm1
  14302. vpclmulqdq $16, %xmm2, %xmm1, %xmm0
  14303. vpshufd $0x4e, %xmm1, %xmm1
  14304. vpxor %xmm0, %xmm1, %xmm1
  14305. vpxor %xmm1, %xmm4, %xmm4
  14306. vmovdqu %xmm4, (%rsi)
  14307. vzeroupper
  14308. repz retq
  14309. #ifndef __APPLE__
  14310. .size AES_GCM_ghash_block_avx2,.-AES_GCM_ghash_block_avx2
  14311. #endif /* __APPLE__ */
  14312. #ifndef __APPLE__
  14313. .text
  14314. .globl AES_GCM_encrypt_update_avx2
  14315. .type AES_GCM_encrypt_update_avx2,@function
  14316. .align 16
  14317. AES_GCM_encrypt_update_avx2:
  14318. #else
  14319. .section __TEXT,__text
  14320. .globl _AES_GCM_encrypt_update_avx2
  14321. .p2align 4
  14322. _AES_GCM_encrypt_update_avx2:
  14323. #endif /* __APPLE__ */
  14324. pushq %r12
  14325. pushq %r13
  14326. pushq %r14
  14327. movq %rdx, %r10
  14328. movq %rcx, %r11
  14329. movq 32(%rsp), %rax
  14330. movq 40(%rsp), %r12
  14331. subq $0x98, %rsp
  14332. vmovdqu (%r9), %xmm6
  14333. vmovdqu (%rax), %xmm5
  14334. vmovdqu (%r12), %xmm4
  14335. vpsrlq $63, %xmm5, %xmm1
  14336. vpsllq $0x01, %xmm5, %xmm0
  14337. vpslldq $8, %xmm1, %xmm1
  14338. vpor %xmm1, %xmm0, %xmm0
  14339. vpshufd $0xff, %xmm5, %xmm5
  14340. vpsrad $31, %xmm5, %xmm5
  14341. vpand L_avx2_aes_gcm_mod2_128(%rip), %xmm5, %xmm5
  14342. vpxor %xmm0, %xmm5, %xmm5
  14343. xorl %r14d, %r14d
  14344. cmpl $0x80, %r8d
  14345. movl %r8d, %r13d
  14346. jl L_AES_GCM_encrypt_update_avx2_done_128
  14347. andl $0xffffff80, %r13d
  14348. vmovdqu %xmm4, 128(%rsp)
  14349. vmovdqu L_avx2_aes_gcm_mod2_128(%rip), %xmm3
  14350. # H ^ 1 and H ^ 2
  14351. vpclmulqdq $0x00, %xmm5, %xmm5, %xmm9
  14352. vpclmulqdq $0x11, %xmm5, %xmm5, %xmm10
  14353. vpclmulqdq $16, %xmm3, %xmm9, %xmm8
  14354. vpshufd $0x4e, %xmm9, %xmm9
  14355. vpxor %xmm8, %xmm9, %xmm9
  14356. vpclmulqdq $16, %xmm3, %xmm9, %xmm8
  14357. vpshufd $0x4e, %xmm9, %xmm9
  14358. vpxor %xmm8, %xmm9, %xmm9
  14359. vpxor %xmm9, %xmm10, %xmm0
  14360. vmovdqu %xmm5, (%rsp)
  14361. vmovdqu %xmm0, 16(%rsp)
  14362. # H ^ 3 and H ^ 4
  14363. vpclmulqdq $16, %xmm5, %xmm0, %xmm11
  14364. vpclmulqdq $0x01, %xmm5, %xmm0, %xmm10
  14365. vpclmulqdq $0x00, %xmm5, %xmm0, %xmm9
  14366. vpclmulqdq $0x11, %xmm5, %xmm0, %xmm12
  14367. vpclmulqdq $0x00, %xmm0, %xmm0, %xmm13
  14368. vpclmulqdq $0x11, %xmm0, %xmm0, %xmm14
  14369. vpxor %xmm10, %xmm11, %xmm11
  14370. vpslldq $8, %xmm11, %xmm10
  14371. vpsrldq $8, %xmm11, %xmm11
  14372. vpxor %xmm9, %xmm10, %xmm10
  14373. vpclmulqdq $16, %xmm3, %xmm13, %xmm8
  14374. vpclmulqdq $16, %xmm3, %xmm10, %xmm9
  14375. vpshufd $0x4e, %xmm10, %xmm10
  14376. vpshufd $0x4e, %xmm13, %xmm13
  14377. vpxor %xmm9, %xmm10, %xmm10
  14378. vpxor %xmm8, %xmm13, %xmm13
  14379. vpclmulqdq $16, %xmm3, %xmm10, %xmm9
  14380. vpclmulqdq $16, %xmm3, %xmm13, %xmm8
  14381. vpshufd $0x4e, %xmm10, %xmm10
  14382. vpshufd $0x4e, %xmm13, %xmm13
  14383. vpxor %xmm11, %xmm12, %xmm12
  14384. vpxor %xmm8, %xmm13, %xmm13
  14385. vpxor %xmm12, %xmm10, %xmm10
  14386. vpxor %xmm14, %xmm13, %xmm2
  14387. vpxor %xmm9, %xmm10, %xmm1
  14388. vmovdqu %xmm1, 32(%rsp)
  14389. vmovdqu %xmm2, 48(%rsp)
  14390. # H ^ 5 and H ^ 6
  14391. vpclmulqdq $16, %xmm0, %xmm1, %xmm11
  14392. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm10
  14393. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm9
  14394. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm12
  14395. vpclmulqdq $0x00, %xmm1, %xmm1, %xmm13
  14396. vpclmulqdq $0x11, %xmm1, %xmm1, %xmm14
  14397. vpxor %xmm10, %xmm11, %xmm11
  14398. vpslldq $8, %xmm11, %xmm10
  14399. vpsrldq $8, %xmm11, %xmm11
  14400. vpxor %xmm9, %xmm10, %xmm10
  14401. vpclmulqdq $16, %xmm3, %xmm13, %xmm8
  14402. vpclmulqdq $16, %xmm3, %xmm10, %xmm9
  14403. vpshufd $0x4e, %xmm10, %xmm10
  14404. vpshufd $0x4e, %xmm13, %xmm13
  14405. vpxor %xmm9, %xmm10, %xmm10
  14406. vpxor %xmm8, %xmm13, %xmm13
  14407. vpclmulqdq $16, %xmm3, %xmm10, %xmm9
  14408. vpclmulqdq $16, %xmm3, %xmm13, %xmm8
  14409. vpshufd $0x4e, %xmm10, %xmm10
  14410. vpshufd $0x4e, %xmm13, %xmm13
  14411. vpxor %xmm11, %xmm12, %xmm12
  14412. vpxor %xmm8, %xmm13, %xmm13
  14413. vpxor %xmm12, %xmm10, %xmm10
  14414. vpxor %xmm14, %xmm13, %xmm0
  14415. vpxor %xmm9, %xmm10, %xmm7
  14416. vmovdqu %xmm7, 64(%rsp)
  14417. vmovdqu %xmm0, 80(%rsp)
  14418. # H ^ 7 and H ^ 8
  14419. vpclmulqdq $16, %xmm1, %xmm2, %xmm11
  14420. vpclmulqdq $0x01, %xmm1, %xmm2, %xmm10
  14421. vpclmulqdq $0x00, %xmm1, %xmm2, %xmm9
  14422. vpclmulqdq $0x11, %xmm1, %xmm2, %xmm12
  14423. vpclmulqdq $0x00, %xmm2, %xmm2, %xmm13
  14424. vpclmulqdq $0x11, %xmm2, %xmm2, %xmm14
  14425. vpxor %xmm10, %xmm11, %xmm11
  14426. vpslldq $8, %xmm11, %xmm10
  14427. vpsrldq $8, %xmm11, %xmm11
  14428. vpxor %xmm9, %xmm10, %xmm10
  14429. vpclmulqdq $16, %xmm3, %xmm13, %xmm8
  14430. vpclmulqdq $16, %xmm3, %xmm10, %xmm9
  14431. vpshufd $0x4e, %xmm10, %xmm10
  14432. vpshufd $0x4e, %xmm13, %xmm13
  14433. vpxor %xmm9, %xmm10, %xmm10
  14434. vpxor %xmm8, %xmm13, %xmm13
  14435. vpclmulqdq $16, %xmm3, %xmm10, %xmm9
  14436. vpclmulqdq $16, %xmm3, %xmm13, %xmm8
  14437. vpshufd $0x4e, %xmm10, %xmm10
  14438. vpshufd $0x4e, %xmm13, %xmm13
  14439. vpxor %xmm11, %xmm12, %xmm12
  14440. vpxor %xmm8, %xmm13, %xmm13
  14441. vpxor %xmm12, %xmm10, %xmm10
  14442. vpxor %xmm14, %xmm13, %xmm0
  14443. vpxor %xmm9, %xmm10, %xmm7
  14444. vmovdqu %xmm7, 96(%rsp)
  14445. vmovdqu %xmm0, 112(%rsp)
  14446. # First 128 bytes of input
  14447. # aesenc_128
  14448. # aesenc_ctr
  14449. vmovdqu 128(%rsp), %xmm0
  14450. vmovdqu L_avx2_aes_gcm_bswap_epi64(%rip), %xmm1
  14451. vpaddd L_avx2_aes_gcm_one(%rip), %xmm0, %xmm9
  14452. vpshufb %xmm1, %xmm0, %xmm8
  14453. vpaddd L_avx2_aes_gcm_two(%rip), %xmm0, %xmm10
  14454. vpshufb %xmm1, %xmm9, %xmm9
  14455. vpaddd L_avx2_aes_gcm_three(%rip), %xmm0, %xmm11
  14456. vpshufb %xmm1, %xmm10, %xmm10
  14457. vpaddd L_avx2_aes_gcm_four(%rip), %xmm0, %xmm12
  14458. vpshufb %xmm1, %xmm11, %xmm11
  14459. vpaddd L_avx2_aes_gcm_five(%rip), %xmm0, %xmm13
  14460. vpshufb %xmm1, %xmm12, %xmm12
  14461. vpaddd L_avx2_aes_gcm_six(%rip), %xmm0, %xmm14
  14462. vpshufb %xmm1, %xmm13, %xmm13
  14463. vpaddd L_avx2_aes_gcm_seven(%rip), %xmm0, %xmm15
  14464. vpshufb %xmm1, %xmm14, %xmm14
  14465. vpaddd L_avx2_aes_gcm_eight(%rip), %xmm0, %xmm0
  14466. vpshufb %xmm1, %xmm15, %xmm15
  14467. # aesenc_xor
  14468. vmovdqu (%rdi), %xmm7
  14469. vmovdqu %xmm0, 128(%rsp)
  14470. vpxor %xmm7, %xmm8, %xmm8
  14471. vpxor %xmm7, %xmm9, %xmm9
  14472. vpxor %xmm7, %xmm10, %xmm10
  14473. vpxor %xmm7, %xmm11, %xmm11
  14474. vpxor %xmm7, %xmm12, %xmm12
  14475. vpxor %xmm7, %xmm13, %xmm13
  14476. vpxor %xmm7, %xmm14, %xmm14
  14477. vpxor %xmm7, %xmm15, %xmm15
  14478. vmovdqu 16(%rdi), %xmm7
  14479. vaesenc %xmm7, %xmm8, %xmm8
  14480. vaesenc %xmm7, %xmm9, %xmm9
  14481. vaesenc %xmm7, %xmm10, %xmm10
  14482. vaesenc %xmm7, %xmm11, %xmm11
  14483. vaesenc %xmm7, %xmm12, %xmm12
  14484. vaesenc %xmm7, %xmm13, %xmm13
  14485. vaesenc %xmm7, %xmm14, %xmm14
  14486. vaesenc %xmm7, %xmm15, %xmm15
  14487. vmovdqu 32(%rdi), %xmm7
  14488. vaesenc %xmm7, %xmm8, %xmm8
  14489. vaesenc %xmm7, %xmm9, %xmm9
  14490. vaesenc %xmm7, %xmm10, %xmm10
  14491. vaesenc %xmm7, %xmm11, %xmm11
  14492. vaesenc %xmm7, %xmm12, %xmm12
  14493. vaesenc %xmm7, %xmm13, %xmm13
  14494. vaesenc %xmm7, %xmm14, %xmm14
  14495. vaesenc %xmm7, %xmm15, %xmm15
  14496. vmovdqu 48(%rdi), %xmm7
  14497. vaesenc %xmm7, %xmm8, %xmm8
  14498. vaesenc %xmm7, %xmm9, %xmm9
  14499. vaesenc %xmm7, %xmm10, %xmm10
  14500. vaesenc %xmm7, %xmm11, %xmm11
  14501. vaesenc %xmm7, %xmm12, %xmm12
  14502. vaesenc %xmm7, %xmm13, %xmm13
  14503. vaesenc %xmm7, %xmm14, %xmm14
  14504. vaesenc %xmm7, %xmm15, %xmm15
  14505. vmovdqu 64(%rdi), %xmm7
  14506. vaesenc %xmm7, %xmm8, %xmm8
  14507. vaesenc %xmm7, %xmm9, %xmm9
  14508. vaesenc %xmm7, %xmm10, %xmm10
  14509. vaesenc %xmm7, %xmm11, %xmm11
  14510. vaesenc %xmm7, %xmm12, %xmm12
  14511. vaesenc %xmm7, %xmm13, %xmm13
  14512. vaesenc %xmm7, %xmm14, %xmm14
  14513. vaesenc %xmm7, %xmm15, %xmm15
  14514. vmovdqu 80(%rdi), %xmm7
  14515. vaesenc %xmm7, %xmm8, %xmm8
  14516. vaesenc %xmm7, %xmm9, %xmm9
  14517. vaesenc %xmm7, %xmm10, %xmm10
  14518. vaesenc %xmm7, %xmm11, %xmm11
  14519. vaesenc %xmm7, %xmm12, %xmm12
  14520. vaesenc %xmm7, %xmm13, %xmm13
  14521. vaesenc %xmm7, %xmm14, %xmm14
  14522. vaesenc %xmm7, %xmm15, %xmm15
  14523. vmovdqu 96(%rdi), %xmm7
  14524. vaesenc %xmm7, %xmm8, %xmm8
  14525. vaesenc %xmm7, %xmm9, %xmm9
  14526. vaesenc %xmm7, %xmm10, %xmm10
  14527. vaesenc %xmm7, %xmm11, %xmm11
  14528. vaesenc %xmm7, %xmm12, %xmm12
  14529. vaesenc %xmm7, %xmm13, %xmm13
  14530. vaesenc %xmm7, %xmm14, %xmm14
  14531. vaesenc %xmm7, %xmm15, %xmm15
  14532. vmovdqu 112(%rdi), %xmm7
  14533. vaesenc %xmm7, %xmm8, %xmm8
  14534. vaesenc %xmm7, %xmm9, %xmm9
  14535. vaesenc %xmm7, %xmm10, %xmm10
  14536. vaesenc %xmm7, %xmm11, %xmm11
  14537. vaesenc %xmm7, %xmm12, %xmm12
  14538. vaesenc %xmm7, %xmm13, %xmm13
  14539. vaesenc %xmm7, %xmm14, %xmm14
  14540. vaesenc %xmm7, %xmm15, %xmm15
  14541. vmovdqu 128(%rdi), %xmm7
  14542. vaesenc %xmm7, %xmm8, %xmm8
  14543. vaesenc %xmm7, %xmm9, %xmm9
  14544. vaesenc %xmm7, %xmm10, %xmm10
  14545. vaesenc %xmm7, %xmm11, %xmm11
  14546. vaesenc %xmm7, %xmm12, %xmm12
  14547. vaesenc %xmm7, %xmm13, %xmm13
  14548. vaesenc %xmm7, %xmm14, %xmm14
  14549. vaesenc %xmm7, %xmm15, %xmm15
  14550. vmovdqu 144(%rdi), %xmm7
  14551. vaesenc %xmm7, %xmm8, %xmm8
  14552. vaesenc %xmm7, %xmm9, %xmm9
  14553. vaesenc %xmm7, %xmm10, %xmm10
  14554. vaesenc %xmm7, %xmm11, %xmm11
  14555. vaesenc %xmm7, %xmm12, %xmm12
  14556. vaesenc %xmm7, %xmm13, %xmm13
  14557. vaesenc %xmm7, %xmm14, %xmm14
  14558. vaesenc %xmm7, %xmm15, %xmm15
  14559. cmpl $11, %esi
  14560. vmovdqu 160(%rdi), %xmm7
  14561. jl L_AES_GCM_encrypt_update_avx2_aesenc_128_enc_done
  14562. vaesenc %xmm7, %xmm8, %xmm8
  14563. vaesenc %xmm7, %xmm9, %xmm9
  14564. vaesenc %xmm7, %xmm10, %xmm10
  14565. vaesenc %xmm7, %xmm11, %xmm11
  14566. vaesenc %xmm7, %xmm12, %xmm12
  14567. vaesenc %xmm7, %xmm13, %xmm13
  14568. vaesenc %xmm7, %xmm14, %xmm14
  14569. vaesenc %xmm7, %xmm15, %xmm15
  14570. vmovdqu 176(%rdi), %xmm7
  14571. vaesenc %xmm7, %xmm8, %xmm8
  14572. vaesenc %xmm7, %xmm9, %xmm9
  14573. vaesenc %xmm7, %xmm10, %xmm10
  14574. vaesenc %xmm7, %xmm11, %xmm11
  14575. vaesenc %xmm7, %xmm12, %xmm12
  14576. vaesenc %xmm7, %xmm13, %xmm13
  14577. vaesenc %xmm7, %xmm14, %xmm14
  14578. vaesenc %xmm7, %xmm15, %xmm15
  14579. cmpl $13, %esi
  14580. vmovdqu 192(%rdi), %xmm7
  14581. jl L_AES_GCM_encrypt_update_avx2_aesenc_128_enc_done
  14582. vaesenc %xmm7, %xmm8, %xmm8
  14583. vaesenc %xmm7, %xmm9, %xmm9
  14584. vaesenc %xmm7, %xmm10, %xmm10
  14585. vaesenc %xmm7, %xmm11, %xmm11
  14586. vaesenc %xmm7, %xmm12, %xmm12
  14587. vaesenc %xmm7, %xmm13, %xmm13
  14588. vaesenc %xmm7, %xmm14, %xmm14
  14589. vaesenc %xmm7, %xmm15, %xmm15
  14590. vmovdqu 208(%rdi), %xmm7
  14591. vaesenc %xmm7, %xmm8, %xmm8
  14592. vaesenc %xmm7, %xmm9, %xmm9
  14593. vaesenc %xmm7, %xmm10, %xmm10
  14594. vaesenc %xmm7, %xmm11, %xmm11
  14595. vaesenc %xmm7, %xmm12, %xmm12
  14596. vaesenc %xmm7, %xmm13, %xmm13
  14597. vaesenc %xmm7, %xmm14, %xmm14
  14598. vaesenc %xmm7, %xmm15, %xmm15
  14599. vmovdqu 224(%rdi), %xmm7
  14600. L_AES_GCM_encrypt_update_avx2_aesenc_128_enc_done:
  14601. # aesenc_last
  14602. vaesenclast %xmm7, %xmm8, %xmm8
  14603. vaesenclast %xmm7, %xmm9, %xmm9
  14604. vaesenclast %xmm7, %xmm10, %xmm10
  14605. vaesenclast %xmm7, %xmm11, %xmm11
  14606. vmovdqu (%r11), %xmm0
  14607. vmovdqu 16(%r11), %xmm1
  14608. vmovdqu 32(%r11), %xmm2
  14609. vmovdqu 48(%r11), %xmm3
  14610. vpxor %xmm0, %xmm8, %xmm8
  14611. vpxor %xmm1, %xmm9, %xmm9
  14612. vpxor %xmm2, %xmm10, %xmm10
  14613. vpxor %xmm3, %xmm11, %xmm11
  14614. vmovdqu %xmm8, (%r10)
  14615. vmovdqu %xmm9, 16(%r10)
  14616. vmovdqu %xmm10, 32(%r10)
  14617. vmovdqu %xmm11, 48(%r10)
  14618. vaesenclast %xmm7, %xmm12, %xmm12
  14619. vaesenclast %xmm7, %xmm13, %xmm13
  14620. vaesenclast %xmm7, %xmm14, %xmm14
  14621. vaesenclast %xmm7, %xmm15, %xmm15
  14622. vmovdqu 64(%r11), %xmm0
  14623. vmovdqu 80(%r11), %xmm1
  14624. vmovdqu 96(%r11), %xmm2
  14625. vmovdqu 112(%r11), %xmm3
  14626. vpxor %xmm0, %xmm12, %xmm12
  14627. vpxor %xmm1, %xmm13, %xmm13
  14628. vpxor %xmm2, %xmm14, %xmm14
  14629. vpxor %xmm3, %xmm15, %xmm15
  14630. vmovdqu %xmm12, 64(%r10)
  14631. vmovdqu %xmm13, 80(%r10)
  14632. vmovdqu %xmm14, 96(%r10)
  14633. vmovdqu %xmm15, 112(%r10)
  14634. cmpl $0x80, %r13d
  14635. movl $0x80, %r14d
  14636. jle L_AES_GCM_encrypt_update_avx2_end_128
  14637. # More 128 bytes of input
  14638. L_AES_GCM_encrypt_update_avx2_ghash_128:
  14639. # aesenc_128_ghash
  14640. leaq (%r11,%r14,1), %rcx
  14641. leaq (%r10,%r14,1), %rdx
  14642. # aesenc_ctr
  14643. vmovdqu 128(%rsp), %xmm0
  14644. vmovdqu L_avx2_aes_gcm_bswap_epi64(%rip), %xmm1
  14645. vpaddd L_avx2_aes_gcm_one(%rip), %xmm0, %xmm9
  14646. vpshufb %xmm1, %xmm0, %xmm8
  14647. vpaddd L_avx2_aes_gcm_two(%rip), %xmm0, %xmm10
  14648. vpshufb %xmm1, %xmm9, %xmm9
  14649. vpaddd L_avx2_aes_gcm_three(%rip), %xmm0, %xmm11
  14650. vpshufb %xmm1, %xmm10, %xmm10
  14651. vpaddd L_avx2_aes_gcm_four(%rip), %xmm0, %xmm12
  14652. vpshufb %xmm1, %xmm11, %xmm11
  14653. vpaddd L_avx2_aes_gcm_five(%rip), %xmm0, %xmm13
  14654. vpshufb %xmm1, %xmm12, %xmm12
  14655. vpaddd L_avx2_aes_gcm_six(%rip), %xmm0, %xmm14
  14656. vpshufb %xmm1, %xmm13, %xmm13
  14657. vpaddd L_avx2_aes_gcm_seven(%rip), %xmm0, %xmm15
  14658. vpshufb %xmm1, %xmm14, %xmm14
  14659. vpaddd L_avx2_aes_gcm_eight(%rip), %xmm0, %xmm0
  14660. vpshufb %xmm1, %xmm15, %xmm15
  14661. # aesenc_xor
  14662. vmovdqu (%rdi), %xmm7
  14663. vmovdqu %xmm0, 128(%rsp)
  14664. vpxor %xmm7, %xmm8, %xmm8
  14665. vpxor %xmm7, %xmm9, %xmm9
  14666. vpxor %xmm7, %xmm10, %xmm10
  14667. vpxor %xmm7, %xmm11, %xmm11
  14668. vpxor %xmm7, %xmm12, %xmm12
  14669. vpxor %xmm7, %xmm13, %xmm13
  14670. vpxor %xmm7, %xmm14, %xmm14
  14671. vpxor %xmm7, %xmm15, %xmm15
  14672. # aesenc_pclmul_1
  14673. vmovdqu -128(%rdx), %xmm1
  14674. vmovdqu 16(%rdi), %xmm0
  14675. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
  14676. vmovdqu 112(%rsp), %xmm2
  14677. vpxor %xmm6, %xmm1, %xmm1
  14678. vpclmulqdq $16, %xmm2, %xmm1, %xmm5
  14679. vpclmulqdq $0x01, %xmm2, %xmm1, %xmm3
  14680. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm6
  14681. vpclmulqdq $0x11, %xmm2, %xmm1, %xmm7
  14682. vaesenc %xmm0, %xmm8, %xmm8
  14683. vaesenc %xmm0, %xmm9, %xmm9
  14684. vaesenc %xmm0, %xmm10, %xmm10
  14685. vaesenc %xmm0, %xmm11, %xmm11
  14686. vaesenc %xmm0, %xmm12, %xmm12
  14687. vaesenc %xmm0, %xmm13, %xmm13
  14688. vaesenc %xmm0, %xmm14, %xmm14
  14689. vaesenc %xmm0, %xmm15, %xmm15
  14690. # aesenc_pclmul_2
  14691. vmovdqu -112(%rdx), %xmm1
  14692. vmovdqu 96(%rsp), %xmm0
  14693. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
  14694. vpxor %xmm3, %xmm5, %xmm5
  14695. vpclmulqdq $16, %xmm0, %xmm1, %xmm2
  14696. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
  14697. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
  14698. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
  14699. vmovdqu 32(%rdi), %xmm0
  14700. vpxor %xmm1, %xmm7, %xmm7
  14701. vaesenc %xmm0, %xmm8, %xmm8
  14702. vaesenc %xmm0, %xmm9, %xmm9
  14703. vaesenc %xmm0, %xmm10, %xmm10
  14704. vaesenc %xmm0, %xmm11, %xmm11
  14705. vaesenc %xmm0, %xmm12, %xmm12
  14706. vaesenc %xmm0, %xmm13, %xmm13
  14707. vaesenc %xmm0, %xmm14, %xmm14
  14708. vaesenc %xmm0, %xmm15, %xmm15
  14709. # aesenc_pclmul_n
  14710. vmovdqu -96(%rdx), %xmm1
  14711. vmovdqu 80(%rsp), %xmm0
  14712. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
  14713. vpxor %xmm2, %xmm5, %xmm5
  14714. vpclmulqdq $16, %xmm0, %xmm1, %xmm2
  14715. vpxor %xmm3, %xmm5, %xmm5
  14716. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
  14717. vpxor %xmm4, %xmm6, %xmm6
  14718. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
  14719. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
  14720. vmovdqu 48(%rdi), %xmm0
  14721. vpxor %xmm1, %xmm7, %xmm7
  14722. vaesenc %xmm0, %xmm8, %xmm8
  14723. vaesenc %xmm0, %xmm9, %xmm9
  14724. vaesenc %xmm0, %xmm10, %xmm10
  14725. vaesenc %xmm0, %xmm11, %xmm11
  14726. vaesenc %xmm0, %xmm12, %xmm12
  14727. vaesenc %xmm0, %xmm13, %xmm13
  14728. vaesenc %xmm0, %xmm14, %xmm14
  14729. vaesenc %xmm0, %xmm15, %xmm15
  14730. # aesenc_pclmul_n
  14731. vmovdqu -80(%rdx), %xmm1
  14732. vmovdqu 64(%rsp), %xmm0
  14733. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
  14734. vpxor %xmm2, %xmm5, %xmm5
  14735. vpclmulqdq $16, %xmm0, %xmm1, %xmm2
  14736. vpxor %xmm3, %xmm5, %xmm5
  14737. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
  14738. vpxor %xmm4, %xmm6, %xmm6
  14739. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
  14740. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
  14741. vmovdqu 64(%rdi), %xmm0
  14742. vpxor %xmm1, %xmm7, %xmm7
  14743. vaesenc %xmm0, %xmm8, %xmm8
  14744. vaesenc %xmm0, %xmm9, %xmm9
  14745. vaesenc %xmm0, %xmm10, %xmm10
  14746. vaesenc %xmm0, %xmm11, %xmm11
  14747. vaesenc %xmm0, %xmm12, %xmm12
  14748. vaesenc %xmm0, %xmm13, %xmm13
  14749. vaesenc %xmm0, %xmm14, %xmm14
  14750. vaesenc %xmm0, %xmm15, %xmm15
  14751. # aesenc_pclmul_n
  14752. vmovdqu -64(%rdx), %xmm1
  14753. vmovdqu 48(%rsp), %xmm0
  14754. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
  14755. vpxor %xmm2, %xmm5, %xmm5
  14756. vpclmulqdq $16, %xmm0, %xmm1, %xmm2
  14757. vpxor %xmm3, %xmm5, %xmm5
  14758. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
  14759. vpxor %xmm4, %xmm6, %xmm6
  14760. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
  14761. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
  14762. vmovdqu 80(%rdi), %xmm0
  14763. vpxor %xmm1, %xmm7, %xmm7
  14764. vaesenc %xmm0, %xmm8, %xmm8
  14765. vaesenc %xmm0, %xmm9, %xmm9
  14766. vaesenc %xmm0, %xmm10, %xmm10
  14767. vaesenc %xmm0, %xmm11, %xmm11
  14768. vaesenc %xmm0, %xmm12, %xmm12
  14769. vaesenc %xmm0, %xmm13, %xmm13
  14770. vaesenc %xmm0, %xmm14, %xmm14
  14771. vaesenc %xmm0, %xmm15, %xmm15
  14772. # aesenc_pclmul_n
  14773. vmovdqu -48(%rdx), %xmm1
  14774. vmovdqu 32(%rsp), %xmm0
  14775. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
  14776. vpxor %xmm2, %xmm5, %xmm5
  14777. vpclmulqdq $16, %xmm0, %xmm1, %xmm2
  14778. vpxor %xmm3, %xmm5, %xmm5
  14779. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
  14780. vpxor %xmm4, %xmm6, %xmm6
  14781. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
  14782. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
  14783. vmovdqu 96(%rdi), %xmm0
  14784. vpxor %xmm1, %xmm7, %xmm7
  14785. vaesenc %xmm0, %xmm8, %xmm8
  14786. vaesenc %xmm0, %xmm9, %xmm9
  14787. vaesenc %xmm0, %xmm10, %xmm10
  14788. vaesenc %xmm0, %xmm11, %xmm11
  14789. vaesenc %xmm0, %xmm12, %xmm12
  14790. vaesenc %xmm0, %xmm13, %xmm13
  14791. vaesenc %xmm0, %xmm14, %xmm14
  14792. vaesenc %xmm0, %xmm15, %xmm15
  14793. # aesenc_pclmul_n
  14794. vmovdqu -32(%rdx), %xmm1
  14795. vmovdqu 16(%rsp), %xmm0
  14796. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
  14797. vpxor %xmm2, %xmm5, %xmm5
  14798. vpclmulqdq $16, %xmm0, %xmm1, %xmm2
  14799. vpxor %xmm3, %xmm5, %xmm5
  14800. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
  14801. vpxor %xmm4, %xmm6, %xmm6
  14802. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
  14803. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
  14804. vmovdqu 112(%rdi), %xmm0
  14805. vpxor %xmm1, %xmm7, %xmm7
  14806. vaesenc %xmm0, %xmm8, %xmm8
  14807. vaesenc %xmm0, %xmm9, %xmm9
  14808. vaesenc %xmm0, %xmm10, %xmm10
  14809. vaesenc %xmm0, %xmm11, %xmm11
  14810. vaesenc %xmm0, %xmm12, %xmm12
  14811. vaesenc %xmm0, %xmm13, %xmm13
  14812. vaesenc %xmm0, %xmm14, %xmm14
  14813. vaesenc %xmm0, %xmm15, %xmm15
  14814. # aesenc_pclmul_n
  14815. vmovdqu -16(%rdx), %xmm1
  14816. vmovdqu (%rsp), %xmm0
  14817. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
  14818. vpxor %xmm2, %xmm5, %xmm5
  14819. vpclmulqdq $16, %xmm0, %xmm1, %xmm2
  14820. vpxor %xmm3, %xmm5, %xmm5
  14821. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
  14822. vpxor %xmm4, %xmm6, %xmm6
  14823. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
  14824. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
  14825. vmovdqu 128(%rdi), %xmm0
  14826. vpxor %xmm1, %xmm7, %xmm7
  14827. vaesenc %xmm0, %xmm8, %xmm8
  14828. vaesenc %xmm0, %xmm9, %xmm9
  14829. vaesenc %xmm0, %xmm10, %xmm10
  14830. vaesenc %xmm0, %xmm11, %xmm11
  14831. vaesenc %xmm0, %xmm12, %xmm12
  14832. vaesenc %xmm0, %xmm13, %xmm13
  14833. vaesenc %xmm0, %xmm14, %xmm14
  14834. vaesenc %xmm0, %xmm15, %xmm15
  14835. # aesenc_pclmul_l
  14836. vpxor %xmm2, %xmm5, %xmm5
  14837. vpxor %xmm4, %xmm6, %xmm6
  14838. vpxor %xmm3, %xmm5, %xmm5
  14839. vpslldq $8, %xmm5, %xmm1
  14840. vpsrldq $8, %xmm5, %xmm5
  14841. vmovdqu 144(%rdi), %xmm4
  14842. vmovdqu L_avx2_aes_gcm_mod2_128(%rip), %xmm0
  14843. vaesenc %xmm4, %xmm8, %xmm8
  14844. vpxor %xmm1, %xmm6, %xmm6
  14845. vpxor %xmm5, %xmm7, %xmm7
  14846. vpclmulqdq $16, %xmm0, %xmm6, %xmm3
  14847. vaesenc %xmm4, %xmm9, %xmm9
  14848. vaesenc %xmm4, %xmm10, %xmm10
  14849. vaesenc %xmm4, %xmm11, %xmm11
  14850. vpshufd $0x4e, %xmm6, %xmm6
  14851. vpxor %xmm3, %xmm6, %xmm6
  14852. vpclmulqdq $16, %xmm0, %xmm6, %xmm3
  14853. vaesenc %xmm4, %xmm12, %xmm12
  14854. vaesenc %xmm4, %xmm13, %xmm13
  14855. vaesenc %xmm4, %xmm14, %xmm14
  14856. vpshufd $0x4e, %xmm6, %xmm6
  14857. vpxor %xmm3, %xmm6, %xmm6
  14858. vpxor %xmm7, %xmm6, %xmm6
  14859. vaesenc %xmm4, %xmm15, %xmm15
  14860. cmpl $11, %esi
  14861. vmovdqu 160(%rdi), %xmm7
  14862. jl L_AES_GCM_encrypt_update_avx2_aesenc_128_ghash_avx_done
  14863. vaesenc %xmm7, %xmm8, %xmm8
  14864. vaesenc %xmm7, %xmm9, %xmm9
  14865. vaesenc %xmm7, %xmm10, %xmm10
  14866. vaesenc %xmm7, %xmm11, %xmm11
  14867. vaesenc %xmm7, %xmm12, %xmm12
  14868. vaesenc %xmm7, %xmm13, %xmm13
  14869. vaesenc %xmm7, %xmm14, %xmm14
  14870. vaesenc %xmm7, %xmm15, %xmm15
  14871. vmovdqu 176(%rdi), %xmm7
  14872. vaesenc %xmm7, %xmm8, %xmm8
  14873. vaesenc %xmm7, %xmm9, %xmm9
  14874. vaesenc %xmm7, %xmm10, %xmm10
  14875. vaesenc %xmm7, %xmm11, %xmm11
  14876. vaesenc %xmm7, %xmm12, %xmm12
  14877. vaesenc %xmm7, %xmm13, %xmm13
  14878. vaesenc %xmm7, %xmm14, %xmm14
  14879. vaesenc %xmm7, %xmm15, %xmm15
  14880. cmpl $13, %esi
  14881. vmovdqu 192(%rdi), %xmm7
  14882. jl L_AES_GCM_encrypt_update_avx2_aesenc_128_ghash_avx_done
  14883. vaesenc %xmm7, %xmm8, %xmm8
  14884. vaesenc %xmm7, %xmm9, %xmm9
  14885. vaesenc %xmm7, %xmm10, %xmm10
  14886. vaesenc %xmm7, %xmm11, %xmm11
  14887. vaesenc %xmm7, %xmm12, %xmm12
  14888. vaesenc %xmm7, %xmm13, %xmm13
  14889. vaesenc %xmm7, %xmm14, %xmm14
  14890. vaesenc %xmm7, %xmm15, %xmm15
  14891. vmovdqu 208(%rdi), %xmm7
  14892. vaesenc %xmm7, %xmm8, %xmm8
  14893. vaesenc %xmm7, %xmm9, %xmm9
  14894. vaesenc %xmm7, %xmm10, %xmm10
  14895. vaesenc %xmm7, %xmm11, %xmm11
  14896. vaesenc %xmm7, %xmm12, %xmm12
  14897. vaesenc %xmm7, %xmm13, %xmm13
  14898. vaesenc %xmm7, %xmm14, %xmm14
  14899. vaesenc %xmm7, %xmm15, %xmm15
  14900. vmovdqu 224(%rdi), %xmm7
  14901. L_AES_GCM_encrypt_update_avx2_aesenc_128_ghash_avx_done:
  14902. # aesenc_last
  14903. vaesenclast %xmm7, %xmm8, %xmm8
  14904. vaesenclast %xmm7, %xmm9, %xmm9
  14905. vaesenclast %xmm7, %xmm10, %xmm10
  14906. vaesenclast %xmm7, %xmm11, %xmm11
  14907. vmovdqu (%rcx), %xmm0
  14908. vmovdqu 16(%rcx), %xmm1
  14909. vmovdqu 32(%rcx), %xmm2
  14910. vmovdqu 48(%rcx), %xmm3
  14911. vpxor %xmm0, %xmm8, %xmm8
  14912. vpxor %xmm1, %xmm9, %xmm9
  14913. vpxor %xmm2, %xmm10, %xmm10
  14914. vpxor %xmm3, %xmm11, %xmm11
  14915. vmovdqu %xmm8, (%rdx)
  14916. vmovdqu %xmm9, 16(%rdx)
  14917. vmovdqu %xmm10, 32(%rdx)
  14918. vmovdqu %xmm11, 48(%rdx)
  14919. vaesenclast %xmm7, %xmm12, %xmm12
  14920. vaesenclast %xmm7, %xmm13, %xmm13
  14921. vaesenclast %xmm7, %xmm14, %xmm14
  14922. vaesenclast %xmm7, %xmm15, %xmm15
  14923. vmovdqu 64(%rcx), %xmm0
  14924. vmovdqu 80(%rcx), %xmm1
  14925. vmovdqu 96(%rcx), %xmm2
  14926. vmovdqu 112(%rcx), %xmm3
  14927. vpxor %xmm0, %xmm12, %xmm12
  14928. vpxor %xmm1, %xmm13, %xmm13
  14929. vpxor %xmm2, %xmm14, %xmm14
  14930. vpxor %xmm3, %xmm15, %xmm15
  14931. vmovdqu %xmm12, 64(%rdx)
  14932. vmovdqu %xmm13, 80(%rdx)
  14933. vmovdqu %xmm14, 96(%rdx)
  14934. vmovdqu %xmm15, 112(%rdx)
  14935. # aesenc_128_ghash - end
  14936. addl $0x80, %r14d
  14937. cmpl %r13d, %r14d
  14938. jl L_AES_GCM_encrypt_update_avx2_ghash_128
  14939. L_AES_GCM_encrypt_update_avx2_end_128:
  14940. vmovdqu L_avx2_aes_gcm_bswap_mask(%rip), %xmm4
  14941. vpshufb %xmm4, %xmm8, %xmm8
  14942. vpshufb %xmm4, %xmm9, %xmm9
  14943. vpshufb %xmm4, %xmm10, %xmm10
  14944. vpshufb %xmm4, %xmm11, %xmm11
  14945. vpshufb %xmm4, %xmm12, %xmm12
  14946. vpshufb %xmm4, %xmm13, %xmm13
  14947. vpshufb %xmm4, %xmm14, %xmm14
  14948. vpshufb %xmm4, %xmm15, %xmm15
  14949. vpxor %xmm6, %xmm8, %xmm8
  14950. vmovdqu (%rsp), %xmm7
  14951. vpclmulqdq $16, %xmm15, %xmm7, %xmm5
  14952. vpclmulqdq $0x01, %xmm15, %xmm7, %xmm1
  14953. vpclmulqdq $0x00, %xmm15, %xmm7, %xmm4
  14954. vpclmulqdq $0x11, %xmm15, %xmm7, %xmm6
  14955. vpxor %xmm1, %xmm5, %xmm5
  14956. vmovdqu 16(%rsp), %xmm7
  14957. vpclmulqdq $16, %xmm14, %xmm7, %xmm2
  14958. vpclmulqdq $0x01, %xmm14, %xmm7, %xmm1
  14959. vpclmulqdq $0x00, %xmm14, %xmm7, %xmm0
  14960. vpclmulqdq $0x11, %xmm14, %xmm7, %xmm3
  14961. vpxor %xmm1, %xmm2, %xmm2
  14962. vpxor %xmm3, %xmm6, %xmm6
  14963. vpxor %xmm2, %xmm5, %xmm5
  14964. vpxor %xmm0, %xmm4, %xmm4
  14965. vmovdqu 32(%rsp), %xmm15
  14966. vmovdqu 48(%rsp), %xmm7
  14967. vpclmulqdq $16, %xmm13, %xmm15, %xmm2
  14968. vpclmulqdq $0x01, %xmm13, %xmm15, %xmm1
  14969. vpclmulqdq $0x00, %xmm13, %xmm15, %xmm0
  14970. vpclmulqdq $0x11, %xmm13, %xmm15, %xmm3
  14971. vpxor %xmm1, %xmm2, %xmm2
  14972. vpxor %xmm3, %xmm6, %xmm6
  14973. vpxor %xmm2, %xmm5, %xmm5
  14974. vpxor %xmm0, %xmm4, %xmm4
  14975. vpclmulqdq $16, %xmm12, %xmm7, %xmm2
  14976. vpclmulqdq $0x01, %xmm12, %xmm7, %xmm1
  14977. vpclmulqdq $0x00, %xmm12, %xmm7, %xmm0
  14978. vpclmulqdq $0x11, %xmm12, %xmm7, %xmm3
  14979. vpxor %xmm1, %xmm2, %xmm2
  14980. vpxor %xmm3, %xmm6, %xmm6
  14981. vpxor %xmm2, %xmm5, %xmm5
  14982. vpxor %xmm0, %xmm4, %xmm4
  14983. vmovdqu 64(%rsp), %xmm15
  14984. vmovdqu 80(%rsp), %xmm7
  14985. vpclmulqdq $16, %xmm11, %xmm15, %xmm2
  14986. vpclmulqdq $0x01, %xmm11, %xmm15, %xmm1
  14987. vpclmulqdq $0x00, %xmm11, %xmm15, %xmm0
  14988. vpclmulqdq $0x11, %xmm11, %xmm15, %xmm3
  14989. vpxor %xmm1, %xmm2, %xmm2
  14990. vpxor %xmm3, %xmm6, %xmm6
  14991. vpxor %xmm2, %xmm5, %xmm5
  14992. vpxor %xmm0, %xmm4, %xmm4
  14993. vpclmulqdq $16, %xmm10, %xmm7, %xmm2
  14994. vpclmulqdq $0x01, %xmm10, %xmm7, %xmm1
  14995. vpclmulqdq $0x00, %xmm10, %xmm7, %xmm0
  14996. vpclmulqdq $0x11, %xmm10, %xmm7, %xmm3
  14997. vpxor %xmm1, %xmm2, %xmm2
  14998. vpxor %xmm3, %xmm6, %xmm6
  14999. vpxor %xmm2, %xmm5, %xmm5
  15000. vpxor %xmm0, %xmm4, %xmm4
  15001. vmovdqu 96(%rsp), %xmm15
  15002. vmovdqu 112(%rsp), %xmm7
  15003. vpclmulqdq $16, %xmm9, %xmm15, %xmm2
  15004. vpclmulqdq $0x01, %xmm9, %xmm15, %xmm1
  15005. vpclmulqdq $0x00, %xmm9, %xmm15, %xmm0
  15006. vpclmulqdq $0x11, %xmm9, %xmm15, %xmm3
  15007. vpxor %xmm1, %xmm2, %xmm2
  15008. vpxor %xmm3, %xmm6, %xmm6
  15009. vpxor %xmm2, %xmm5, %xmm5
  15010. vpxor %xmm0, %xmm4, %xmm4
  15011. vpclmulqdq $16, %xmm8, %xmm7, %xmm2
  15012. vpclmulqdq $0x01, %xmm8, %xmm7, %xmm1
  15013. vpclmulqdq $0x00, %xmm8, %xmm7, %xmm0
  15014. vpclmulqdq $0x11, %xmm8, %xmm7, %xmm3
  15015. vpxor %xmm1, %xmm2, %xmm2
  15016. vpxor %xmm3, %xmm6, %xmm6
  15017. vpxor %xmm2, %xmm5, %xmm5
  15018. vpxor %xmm0, %xmm4, %xmm4
  15019. vpslldq $8, %xmm5, %xmm7
  15020. vpsrldq $8, %xmm5, %xmm5
  15021. vpxor %xmm7, %xmm4, %xmm4
  15022. vpxor %xmm5, %xmm6, %xmm6
  15023. # ghash_red
  15024. vmovdqu L_avx2_aes_gcm_mod2_128(%rip), %xmm2
  15025. vpclmulqdq $16, %xmm2, %xmm4, %xmm0
  15026. vpshufd $0x4e, %xmm4, %xmm1
  15027. vpxor %xmm0, %xmm1, %xmm1
  15028. vpclmulqdq $16, %xmm2, %xmm1, %xmm0
  15029. vpshufd $0x4e, %xmm1, %xmm1
  15030. vpxor %xmm0, %xmm1, %xmm1
  15031. vpxor %xmm1, %xmm6, %xmm6
  15032. vmovdqu (%rsp), %xmm5
  15033. vmovdqu 128(%rsp), %xmm4
  15034. L_AES_GCM_encrypt_update_avx2_done_128:
  15035. cmpl %r8d, %r14d
  15036. je L_AES_GCM_encrypt_update_avx2_done_enc
  15037. movl %r8d, %r13d
  15038. andl $0xfffffff0, %r13d
  15039. cmpl %r13d, %r14d
  15040. jge L_AES_GCM_encrypt_update_avx2_last_block_done
  15041. # aesenc_block
  15042. vmovdqu %xmm4, %xmm1
  15043. vpshufb L_avx2_aes_gcm_bswap_epi64(%rip), %xmm1, %xmm0
  15044. vpaddd L_avx2_aes_gcm_one(%rip), %xmm1, %xmm1
  15045. vpxor (%rdi), %xmm0, %xmm0
  15046. vmovdqu 16(%rdi), %xmm2
  15047. vaesenc %xmm2, %xmm0, %xmm0
  15048. vmovdqu 32(%rdi), %xmm2
  15049. vaesenc %xmm2, %xmm0, %xmm0
  15050. vmovdqu 48(%rdi), %xmm2
  15051. vaesenc %xmm2, %xmm0, %xmm0
  15052. vmovdqu 64(%rdi), %xmm2
  15053. vaesenc %xmm2, %xmm0, %xmm0
  15054. vmovdqu 80(%rdi), %xmm2
  15055. vaesenc %xmm2, %xmm0, %xmm0
  15056. vmovdqu 96(%rdi), %xmm2
  15057. vaesenc %xmm2, %xmm0, %xmm0
  15058. vmovdqu 112(%rdi), %xmm2
  15059. vaesenc %xmm2, %xmm0, %xmm0
  15060. vmovdqu 128(%rdi), %xmm2
  15061. vaesenc %xmm2, %xmm0, %xmm0
  15062. vmovdqu 144(%rdi), %xmm2
  15063. vaesenc %xmm2, %xmm0, %xmm0
  15064. vmovdqu %xmm1, %xmm4
  15065. cmpl $11, %esi
  15066. vmovdqu 160(%rdi), %xmm1
  15067. jl L_AES_GCM_encrypt_update_avx2_aesenc_block_last
  15068. vaesenc %xmm1, %xmm0, %xmm0
  15069. vmovdqu 176(%rdi), %xmm2
  15070. vaesenc %xmm2, %xmm0, %xmm0
  15071. cmpl $13, %esi
  15072. vmovdqu 192(%rdi), %xmm1
  15073. jl L_AES_GCM_encrypt_update_avx2_aesenc_block_last
  15074. vaesenc %xmm1, %xmm0, %xmm0
  15075. vmovdqu 208(%rdi), %xmm2
  15076. vaesenc %xmm2, %xmm0, %xmm0
  15077. vmovdqu 224(%rdi), %xmm1
  15078. L_AES_GCM_encrypt_update_avx2_aesenc_block_last:
  15079. vaesenclast %xmm1, %xmm0, %xmm0
  15080. vmovdqu (%r11,%r14,1), %xmm1
  15081. vpxor %xmm1, %xmm0, %xmm0
  15082. vmovdqu %xmm0, (%r10,%r14,1)
  15083. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  15084. vpxor %xmm0, %xmm6, %xmm6
  15085. addl $16, %r14d
  15086. cmpl %r13d, %r14d
  15087. jge L_AES_GCM_encrypt_update_avx2_last_block_ghash
  15088. L_AES_GCM_encrypt_update_avx2_last_block_start:
  15089. vmovdqu (%r11,%r14,1), %xmm12
  15090. vpshufb L_avx2_aes_gcm_bswap_epi64(%rip), %xmm4, %xmm11
  15091. vpaddd L_avx2_aes_gcm_one(%rip), %xmm4, %xmm4
  15092. # aesenc_gfmul_sb
  15093. vpclmulqdq $0x01, %xmm5, %xmm6, %xmm2
  15094. vpclmulqdq $16, %xmm5, %xmm6, %xmm3
  15095. vpclmulqdq $0x00, %xmm5, %xmm6, %xmm1
  15096. vpclmulqdq $0x11, %xmm5, %xmm6, %xmm8
  15097. vpxor (%rdi), %xmm11, %xmm11
  15098. vaesenc 16(%rdi), %xmm11, %xmm11
  15099. vpxor %xmm2, %xmm3, %xmm3
  15100. vpslldq $8, %xmm3, %xmm2
  15101. vpsrldq $8, %xmm3, %xmm3
  15102. vaesenc 32(%rdi), %xmm11, %xmm11
  15103. vpxor %xmm1, %xmm2, %xmm2
  15104. vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm2, %xmm1
  15105. vaesenc 48(%rdi), %xmm11, %xmm11
  15106. vaesenc 64(%rdi), %xmm11, %xmm11
  15107. vaesenc 80(%rdi), %xmm11, %xmm11
  15108. vpshufd $0x4e, %xmm2, %xmm2
  15109. vpxor %xmm1, %xmm2, %xmm2
  15110. vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm2, %xmm1
  15111. vaesenc 96(%rdi), %xmm11, %xmm11
  15112. vaesenc 112(%rdi), %xmm11, %xmm11
  15113. vaesenc 128(%rdi), %xmm11, %xmm11
  15114. vpshufd $0x4e, %xmm2, %xmm2
  15115. vaesenc 144(%rdi), %xmm11, %xmm11
  15116. vpxor %xmm3, %xmm8, %xmm8
  15117. vpxor %xmm8, %xmm2, %xmm2
  15118. vmovdqu 160(%rdi), %xmm0
  15119. cmpl $11, %esi
  15120. jl L_AES_GCM_encrypt_update_avx2_aesenc_gfmul_sb_last
  15121. vaesenc %xmm0, %xmm11, %xmm11
  15122. vaesenc 176(%rdi), %xmm11, %xmm11
  15123. vmovdqu 192(%rdi), %xmm0
  15124. cmpl $13, %esi
  15125. jl L_AES_GCM_encrypt_update_avx2_aesenc_gfmul_sb_last
  15126. vaesenc %xmm0, %xmm11, %xmm11
  15127. vaesenc 208(%rdi), %xmm11, %xmm11
  15128. vmovdqu 224(%rdi), %xmm0
  15129. L_AES_GCM_encrypt_update_avx2_aesenc_gfmul_sb_last:
  15130. vaesenclast %xmm0, %xmm11, %xmm11
  15131. vpxor %xmm1, %xmm2, %xmm6
  15132. vpxor %xmm12, %xmm11, %xmm11
  15133. vmovdqu %xmm11, (%r10,%r14,1)
  15134. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm11, %xmm11
  15135. vpxor %xmm11, %xmm6, %xmm6
  15136. addl $16, %r14d
  15137. cmpl %r13d, %r14d
  15138. jl L_AES_GCM_encrypt_update_avx2_last_block_start
  15139. L_AES_GCM_encrypt_update_avx2_last_block_ghash:
  15140. # ghash_gfmul_red
  15141. vpclmulqdq $16, %xmm5, %xmm6, %xmm10
  15142. vpclmulqdq $0x01, %xmm5, %xmm6, %xmm9
  15143. vpclmulqdq $0x00, %xmm5, %xmm6, %xmm8
  15144. vpxor %xmm9, %xmm10, %xmm10
  15145. vpslldq $8, %xmm10, %xmm9
  15146. vpsrldq $8, %xmm10, %xmm10
  15147. vpxor %xmm8, %xmm9, %xmm9
  15148. vpclmulqdq $0x11, %xmm5, %xmm6, %xmm6
  15149. vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm9, %xmm8
  15150. vpshufd $0x4e, %xmm9, %xmm9
  15151. vpxor %xmm8, %xmm9, %xmm9
  15152. vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm9, %xmm8
  15153. vpshufd $0x4e, %xmm9, %xmm9
  15154. vpxor %xmm10, %xmm6, %xmm6
  15155. vpxor %xmm9, %xmm6, %xmm6
  15156. vpxor %xmm8, %xmm6, %xmm6
  15157. L_AES_GCM_encrypt_update_avx2_last_block_done:
  15158. L_AES_GCM_encrypt_update_avx2_done_enc:
  15159. vmovdqu %xmm6, (%r9)
  15160. vmovdqu %xmm4, (%r12)
  15161. vzeroupper
  15162. addq $0x98, %rsp
  15163. popq %r14
  15164. popq %r13
  15165. popq %r12
  15166. repz retq
  15167. #ifndef __APPLE__
  15168. .size AES_GCM_encrypt_update_avx2,.-AES_GCM_encrypt_update_avx2
  15169. #endif /* __APPLE__ */
  15170. #ifndef __APPLE__
  15171. .text
  15172. .globl AES_GCM_encrypt_final_avx2
  15173. .type AES_GCM_encrypt_final_avx2,@function
  15174. .align 16
  15175. AES_GCM_encrypt_final_avx2:
  15176. #else
  15177. .section __TEXT,__text
  15178. .globl _AES_GCM_encrypt_final_avx2
  15179. .p2align 4
  15180. _AES_GCM_encrypt_final_avx2:
  15181. #endif /* __APPLE__ */
  15182. pushq %r13
  15183. movl %ecx, %r10d
  15184. movl %r8d, %r11d
  15185. movq 16(%rsp), %rax
  15186. subq $16, %rsp
  15187. vmovdqu (%rdi), %xmm4
  15188. vmovdqu (%r9), %xmm5
  15189. vmovdqu (%rax), %xmm6
  15190. vpsrlq $63, %xmm5, %xmm1
  15191. vpsllq $0x01, %xmm5, %xmm0
  15192. vpslldq $8, %xmm1, %xmm1
  15193. vpor %xmm1, %xmm0, %xmm0
  15194. vpshufd $0xff, %xmm5, %xmm5
  15195. vpsrad $31, %xmm5, %xmm5
  15196. vpand L_avx2_aes_gcm_mod2_128(%rip), %xmm5, %xmm5
  15197. vpxor %xmm0, %xmm5, %xmm5
  15198. # calc_tag
  15199. shlq $3, %r10
  15200. vpinsrq $0x00, %r10, %xmm0, %xmm0
  15201. shlq $3, %r11
  15202. vpinsrq $0x01, %r11, %xmm1, %xmm1
  15203. vpblendd $12, %xmm1, %xmm0, %xmm0
  15204. vpxor %xmm4, %xmm0, %xmm0
  15205. # ghash_gfmul_red
  15206. vpclmulqdq $16, %xmm5, %xmm0, %xmm7
  15207. vpclmulqdq $0x01, %xmm5, %xmm0, %xmm3
  15208. vpclmulqdq $0x00, %xmm5, %xmm0, %xmm2
  15209. vpxor %xmm3, %xmm7, %xmm7
  15210. vpslldq $8, %xmm7, %xmm3
  15211. vpsrldq $8, %xmm7, %xmm7
  15212. vpxor %xmm2, %xmm3, %xmm3
  15213. vpclmulqdq $0x11, %xmm5, %xmm0, %xmm0
  15214. vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm3, %xmm2
  15215. vpshufd $0x4e, %xmm3, %xmm3
  15216. vpxor %xmm2, %xmm3, %xmm3
  15217. vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm3, %xmm2
  15218. vpshufd $0x4e, %xmm3, %xmm3
  15219. vpxor %xmm7, %xmm0, %xmm0
  15220. vpxor %xmm3, %xmm0, %xmm0
  15221. vpxor %xmm2, %xmm0, %xmm0
  15222. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  15223. vpxor %xmm6, %xmm0, %xmm0
  15224. # store_tag
  15225. cmpl $16, %edx
  15226. je L_AES_GCM_encrypt_final_avx2_store_tag_16
  15227. xorq %rcx, %rcx
  15228. vmovdqu %xmm0, (%rsp)
  15229. L_AES_GCM_encrypt_final_avx2_store_tag_loop:
  15230. movzbl (%rsp,%rcx,1), %r13d
  15231. movb %r13b, (%rsi,%rcx,1)
  15232. incl %ecx
  15233. cmpl %edx, %ecx
  15234. jne L_AES_GCM_encrypt_final_avx2_store_tag_loop
  15235. jmp L_AES_GCM_encrypt_final_avx2_store_tag_done
  15236. L_AES_GCM_encrypt_final_avx2_store_tag_16:
  15237. vmovdqu %xmm0, (%rsi)
  15238. L_AES_GCM_encrypt_final_avx2_store_tag_done:
  15239. vzeroupper
  15240. addq $16, %rsp
  15241. popq %r13
  15242. repz retq
  15243. #ifndef __APPLE__
  15244. .size AES_GCM_encrypt_final_avx2,.-AES_GCM_encrypt_final_avx2
  15245. #endif /* __APPLE__ */
  15246. #ifndef __APPLE__
  15247. .text
  15248. .globl AES_GCM_decrypt_update_avx2
  15249. .type AES_GCM_decrypt_update_avx2,@function
  15250. .align 16
  15251. AES_GCM_decrypt_update_avx2:
  15252. #else
  15253. .section __TEXT,__text
  15254. .globl _AES_GCM_decrypt_update_avx2
  15255. .p2align 4
  15256. _AES_GCM_decrypt_update_avx2:
  15257. #endif /* __APPLE__ */
  15258. pushq %r13
  15259. pushq %r12
  15260. pushq %r14
  15261. movq %rdx, %r10
  15262. movq %rcx, %r11
  15263. movq 32(%rsp), %rax
  15264. movq 40(%rsp), %r12
  15265. subq $0xa8, %rsp
  15266. vmovdqu (%r9), %xmm6
  15267. vmovdqu (%rax), %xmm5
  15268. vmovdqu (%r12), %xmm4
  15269. # Calculate H
  15270. vpsrlq $63, %xmm5, %xmm1
  15271. vpsllq $0x01, %xmm5, %xmm0
  15272. vpslldq $8, %xmm1, %xmm1
  15273. vpor %xmm1, %xmm0, %xmm0
  15274. vpshufd $0xff, %xmm5, %xmm5
  15275. vpsrad $31, %xmm5, %xmm5
  15276. vpand L_avx2_aes_gcm_mod2_128(%rip), %xmm5, %xmm5
  15277. vpxor %xmm0, %xmm5, %xmm5
  15278. xorl %r14d, %r14d
  15279. cmpl $0x80, %r8d
  15280. movl %r8d, %r13d
  15281. jl L_AES_GCM_decrypt_update_avx2_done_128
  15282. andl $0xffffff80, %r13d
  15283. vmovdqu %xmm4, 128(%rsp)
  15284. vmovdqu %xmm15, 144(%rsp)
  15285. vmovdqu L_avx2_aes_gcm_mod2_128(%rip), %xmm3
  15286. # H ^ 1 and H ^ 2
  15287. vpclmulqdq $0x00, %xmm5, %xmm5, %xmm9
  15288. vpclmulqdq $0x11, %xmm5, %xmm5, %xmm10
  15289. vpclmulqdq $16, %xmm3, %xmm9, %xmm8
  15290. vpshufd $0x4e, %xmm9, %xmm9
  15291. vpxor %xmm8, %xmm9, %xmm9
  15292. vpclmulqdq $16, %xmm3, %xmm9, %xmm8
  15293. vpshufd $0x4e, %xmm9, %xmm9
  15294. vpxor %xmm8, %xmm9, %xmm9
  15295. vpxor %xmm9, %xmm10, %xmm0
  15296. vmovdqu %xmm5, (%rsp)
  15297. vmovdqu %xmm0, 16(%rsp)
  15298. # H ^ 3 and H ^ 4
  15299. vpclmulqdq $16, %xmm5, %xmm0, %xmm11
  15300. vpclmulqdq $0x01, %xmm5, %xmm0, %xmm10
  15301. vpclmulqdq $0x00, %xmm5, %xmm0, %xmm9
  15302. vpclmulqdq $0x11, %xmm5, %xmm0, %xmm12
  15303. vpclmulqdq $0x00, %xmm0, %xmm0, %xmm13
  15304. vpclmulqdq $0x11, %xmm0, %xmm0, %xmm14
  15305. vpxor %xmm10, %xmm11, %xmm11
  15306. vpslldq $8, %xmm11, %xmm10
  15307. vpsrldq $8, %xmm11, %xmm11
  15308. vpxor %xmm9, %xmm10, %xmm10
  15309. vpclmulqdq $16, %xmm3, %xmm13, %xmm8
  15310. vpclmulqdq $16, %xmm3, %xmm10, %xmm9
  15311. vpshufd $0x4e, %xmm10, %xmm10
  15312. vpshufd $0x4e, %xmm13, %xmm13
  15313. vpxor %xmm9, %xmm10, %xmm10
  15314. vpxor %xmm8, %xmm13, %xmm13
  15315. vpclmulqdq $16, %xmm3, %xmm10, %xmm9
  15316. vpclmulqdq $16, %xmm3, %xmm13, %xmm8
  15317. vpshufd $0x4e, %xmm10, %xmm10
  15318. vpshufd $0x4e, %xmm13, %xmm13
  15319. vpxor %xmm11, %xmm12, %xmm12
  15320. vpxor %xmm8, %xmm13, %xmm13
  15321. vpxor %xmm12, %xmm10, %xmm10
  15322. vpxor %xmm14, %xmm13, %xmm2
  15323. vpxor %xmm9, %xmm10, %xmm1
  15324. vmovdqu %xmm1, 32(%rsp)
  15325. vmovdqu %xmm2, 48(%rsp)
  15326. # H ^ 5 and H ^ 6
  15327. vpclmulqdq $16, %xmm0, %xmm1, %xmm11
  15328. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm10
  15329. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm9
  15330. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm12
  15331. vpclmulqdq $0x00, %xmm1, %xmm1, %xmm13
  15332. vpclmulqdq $0x11, %xmm1, %xmm1, %xmm14
  15333. vpxor %xmm10, %xmm11, %xmm11
  15334. vpslldq $8, %xmm11, %xmm10
  15335. vpsrldq $8, %xmm11, %xmm11
  15336. vpxor %xmm9, %xmm10, %xmm10
  15337. vpclmulqdq $16, %xmm3, %xmm13, %xmm8
  15338. vpclmulqdq $16, %xmm3, %xmm10, %xmm9
  15339. vpshufd $0x4e, %xmm10, %xmm10
  15340. vpshufd $0x4e, %xmm13, %xmm13
  15341. vpxor %xmm9, %xmm10, %xmm10
  15342. vpxor %xmm8, %xmm13, %xmm13
  15343. vpclmulqdq $16, %xmm3, %xmm10, %xmm9
  15344. vpclmulqdq $16, %xmm3, %xmm13, %xmm8
  15345. vpshufd $0x4e, %xmm10, %xmm10
  15346. vpshufd $0x4e, %xmm13, %xmm13
  15347. vpxor %xmm11, %xmm12, %xmm12
  15348. vpxor %xmm8, %xmm13, %xmm13
  15349. vpxor %xmm12, %xmm10, %xmm10
  15350. vpxor %xmm14, %xmm13, %xmm0
  15351. vpxor %xmm9, %xmm10, %xmm7
  15352. vmovdqu %xmm7, 64(%rsp)
  15353. vmovdqu %xmm0, 80(%rsp)
  15354. # H ^ 7 and H ^ 8
  15355. vpclmulqdq $16, %xmm1, %xmm2, %xmm11
  15356. vpclmulqdq $0x01, %xmm1, %xmm2, %xmm10
  15357. vpclmulqdq $0x00, %xmm1, %xmm2, %xmm9
  15358. vpclmulqdq $0x11, %xmm1, %xmm2, %xmm12
  15359. vpclmulqdq $0x00, %xmm2, %xmm2, %xmm13
  15360. vpclmulqdq $0x11, %xmm2, %xmm2, %xmm14
  15361. vpxor %xmm10, %xmm11, %xmm11
  15362. vpslldq $8, %xmm11, %xmm10
  15363. vpsrldq $8, %xmm11, %xmm11
  15364. vpxor %xmm9, %xmm10, %xmm10
  15365. vpclmulqdq $16, %xmm3, %xmm13, %xmm8
  15366. vpclmulqdq $16, %xmm3, %xmm10, %xmm9
  15367. vpshufd $0x4e, %xmm10, %xmm10
  15368. vpshufd $0x4e, %xmm13, %xmm13
  15369. vpxor %xmm9, %xmm10, %xmm10
  15370. vpxor %xmm8, %xmm13, %xmm13
  15371. vpclmulqdq $16, %xmm3, %xmm10, %xmm9
  15372. vpclmulqdq $16, %xmm3, %xmm13, %xmm8
  15373. vpshufd $0x4e, %xmm10, %xmm10
  15374. vpshufd $0x4e, %xmm13, %xmm13
  15375. vpxor %xmm11, %xmm12, %xmm12
  15376. vpxor %xmm8, %xmm13, %xmm13
  15377. vpxor %xmm12, %xmm10, %xmm10
  15378. vpxor %xmm14, %xmm13, %xmm0
  15379. vpxor %xmm9, %xmm10, %xmm7
  15380. vmovdqu %xmm7, 96(%rsp)
  15381. vmovdqu %xmm0, 112(%rsp)
  15382. L_AES_GCM_decrypt_update_avx2_ghash_128:
  15383. # aesenc_128_ghash
  15384. leaq (%r11,%r14,1), %rcx
  15385. leaq (%r10,%r14,1), %rdx
  15386. # aesenc_ctr
  15387. vmovdqu 128(%rsp), %xmm0
  15388. vmovdqu L_avx2_aes_gcm_bswap_epi64(%rip), %xmm1
  15389. vpaddd L_avx2_aes_gcm_one(%rip), %xmm0, %xmm9
  15390. vpshufb %xmm1, %xmm0, %xmm8
  15391. vpaddd L_avx2_aes_gcm_two(%rip), %xmm0, %xmm10
  15392. vpshufb %xmm1, %xmm9, %xmm9
  15393. vpaddd L_avx2_aes_gcm_three(%rip), %xmm0, %xmm11
  15394. vpshufb %xmm1, %xmm10, %xmm10
  15395. vpaddd L_avx2_aes_gcm_four(%rip), %xmm0, %xmm12
  15396. vpshufb %xmm1, %xmm11, %xmm11
  15397. vpaddd L_avx2_aes_gcm_five(%rip), %xmm0, %xmm13
  15398. vpshufb %xmm1, %xmm12, %xmm12
  15399. vpaddd L_avx2_aes_gcm_six(%rip), %xmm0, %xmm14
  15400. vpshufb %xmm1, %xmm13, %xmm13
  15401. vpaddd L_avx2_aes_gcm_seven(%rip), %xmm0, %xmm15
  15402. vpshufb %xmm1, %xmm14, %xmm14
  15403. vpaddd L_avx2_aes_gcm_eight(%rip), %xmm0, %xmm0
  15404. vpshufb %xmm1, %xmm15, %xmm15
  15405. # aesenc_xor
  15406. vmovdqu (%rdi), %xmm7
  15407. vmovdqu %xmm0, 128(%rsp)
  15408. vpxor %xmm7, %xmm8, %xmm8
  15409. vpxor %xmm7, %xmm9, %xmm9
  15410. vpxor %xmm7, %xmm10, %xmm10
  15411. vpxor %xmm7, %xmm11, %xmm11
  15412. vpxor %xmm7, %xmm12, %xmm12
  15413. vpxor %xmm7, %xmm13, %xmm13
  15414. vpxor %xmm7, %xmm14, %xmm14
  15415. vpxor %xmm7, %xmm15, %xmm15
  15416. # aesenc_pclmul_1
  15417. vmovdqu (%rcx), %xmm1
  15418. vmovdqu 16(%rdi), %xmm0
  15419. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
  15420. vmovdqu 112(%rsp), %xmm2
  15421. vpxor %xmm6, %xmm1, %xmm1
  15422. vpclmulqdq $16, %xmm2, %xmm1, %xmm5
  15423. vpclmulqdq $0x01, %xmm2, %xmm1, %xmm3
  15424. vpclmulqdq $0x00, %xmm2, %xmm1, %xmm6
  15425. vpclmulqdq $0x11, %xmm2, %xmm1, %xmm7
  15426. vaesenc %xmm0, %xmm8, %xmm8
  15427. vaesenc %xmm0, %xmm9, %xmm9
  15428. vaesenc %xmm0, %xmm10, %xmm10
  15429. vaesenc %xmm0, %xmm11, %xmm11
  15430. vaesenc %xmm0, %xmm12, %xmm12
  15431. vaesenc %xmm0, %xmm13, %xmm13
  15432. vaesenc %xmm0, %xmm14, %xmm14
  15433. vaesenc %xmm0, %xmm15, %xmm15
  15434. # aesenc_pclmul_2
  15435. vmovdqu 16(%rcx), %xmm1
  15436. vmovdqu 96(%rsp), %xmm0
  15437. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
  15438. vpxor %xmm3, %xmm5, %xmm5
  15439. vpclmulqdq $16, %xmm0, %xmm1, %xmm2
  15440. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
  15441. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
  15442. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
  15443. vmovdqu 32(%rdi), %xmm0
  15444. vpxor %xmm1, %xmm7, %xmm7
  15445. vaesenc %xmm0, %xmm8, %xmm8
  15446. vaesenc %xmm0, %xmm9, %xmm9
  15447. vaesenc %xmm0, %xmm10, %xmm10
  15448. vaesenc %xmm0, %xmm11, %xmm11
  15449. vaesenc %xmm0, %xmm12, %xmm12
  15450. vaesenc %xmm0, %xmm13, %xmm13
  15451. vaesenc %xmm0, %xmm14, %xmm14
  15452. vaesenc %xmm0, %xmm15, %xmm15
  15453. # aesenc_pclmul_n
  15454. vmovdqu 32(%rcx), %xmm1
  15455. vmovdqu 80(%rsp), %xmm0
  15456. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
  15457. vpxor %xmm2, %xmm5, %xmm5
  15458. vpclmulqdq $16, %xmm0, %xmm1, %xmm2
  15459. vpxor %xmm3, %xmm5, %xmm5
  15460. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
  15461. vpxor %xmm4, %xmm6, %xmm6
  15462. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
  15463. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
  15464. vmovdqu 48(%rdi), %xmm0
  15465. vpxor %xmm1, %xmm7, %xmm7
  15466. vaesenc %xmm0, %xmm8, %xmm8
  15467. vaesenc %xmm0, %xmm9, %xmm9
  15468. vaesenc %xmm0, %xmm10, %xmm10
  15469. vaesenc %xmm0, %xmm11, %xmm11
  15470. vaesenc %xmm0, %xmm12, %xmm12
  15471. vaesenc %xmm0, %xmm13, %xmm13
  15472. vaesenc %xmm0, %xmm14, %xmm14
  15473. vaesenc %xmm0, %xmm15, %xmm15
  15474. # aesenc_pclmul_n
  15475. vmovdqu 48(%rcx), %xmm1
  15476. vmovdqu 64(%rsp), %xmm0
  15477. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
  15478. vpxor %xmm2, %xmm5, %xmm5
  15479. vpclmulqdq $16, %xmm0, %xmm1, %xmm2
  15480. vpxor %xmm3, %xmm5, %xmm5
  15481. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
  15482. vpxor %xmm4, %xmm6, %xmm6
  15483. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
  15484. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
  15485. vmovdqu 64(%rdi), %xmm0
  15486. vpxor %xmm1, %xmm7, %xmm7
  15487. vaesenc %xmm0, %xmm8, %xmm8
  15488. vaesenc %xmm0, %xmm9, %xmm9
  15489. vaesenc %xmm0, %xmm10, %xmm10
  15490. vaesenc %xmm0, %xmm11, %xmm11
  15491. vaesenc %xmm0, %xmm12, %xmm12
  15492. vaesenc %xmm0, %xmm13, %xmm13
  15493. vaesenc %xmm0, %xmm14, %xmm14
  15494. vaesenc %xmm0, %xmm15, %xmm15
  15495. # aesenc_pclmul_n
  15496. vmovdqu 64(%rcx), %xmm1
  15497. vmovdqu 48(%rsp), %xmm0
  15498. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
  15499. vpxor %xmm2, %xmm5, %xmm5
  15500. vpclmulqdq $16, %xmm0, %xmm1, %xmm2
  15501. vpxor %xmm3, %xmm5, %xmm5
  15502. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
  15503. vpxor %xmm4, %xmm6, %xmm6
  15504. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
  15505. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
  15506. vmovdqu 80(%rdi), %xmm0
  15507. vpxor %xmm1, %xmm7, %xmm7
  15508. vaesenc %xmm0, %xmm8, %xmm8
  15509. vaesenc %xmm0, %xmm9, %xmm9
  15510. vaesenc %xmm0, %xmm10, %xmm10
  15511. vaesenc %xmm0, %xmm11, %xmm11
  15512. vaesenc %xmm0, %xmm12, %xmm12
  15513. vaesenc %xmm0, %xmm13, %xmm13
  15514. vaesenc %xmm0, %xmm14, %xmm14
  15515. vaesenc %xmm0, %xmm15, %xmm15
  15516. # aesenc_pclmul_n
  15517. vmovdqu 80(%rcx), %xmm1
  15518. vmovdqu 32(%rsp), %xmm0
  15519. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
  15520. vpxor %xmm2, %xmm5, %xmm5
  15521. vpclmulqdq $16, %xmm0, %xmm1, %xmm2
  15522. vpxor %xmm3, %xmm5, %xmm5
  15523. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
  15524. vpxor %xmm4, %xmm6, %xmm6
  15525. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
  15526. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
  15527. vmovdqu 96(%rdi), %xmm0
  15528. vpxor %xmm1, %xmm7, %xmm7
  15529. vaesenc %xmm0, %xmm8, %xmm8
  15530. vaesenc %xmm0, %xmm9, %xmm9
  15531. vaesenc %xmm0, %xmm10, %xmm10
  15532. vaesenc %xmm0, %xmm11, %xmm11
  15533. vaesenc %xmm0, %xmm12, %xmm12
  15534. vaesenc %xmm0, %xmm13, %xmm13
  15535. vaesenc %xmm0, %xmm14, %xmm14
  15536. vaesenc %xmm0, %xmm15, %xmm15
  15537. # aesenc_pclmul_n
  15538. vmovdqu 96(%rcx), %xmm1
  15539. vmovdqu 16(%rsp), %xmm0
  15540. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
  15541. vpxor %xmm2, %xmm5, %xmm5
  15542. vpclmulqdq $16, %xmm0, %xmm1, %xmm2
  15543. vpxor %xmm3, %xmm5, %xmm5
  15544. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
  15545. vpxor %xmm4, %xmm6, %xmm6
  15546. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
  15547. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
  15548. vmovdqu 112(%rdi), %xmm0
  15549. vpxor %xmm1, %xmm7, %xmm7
  15550. vaesenc %xmm0, %xmm8, %xmm8
  15551. vaesenc %xmm0, %xmm9, %xmm9
  15552. vaesenc %xmm0, %xmm10, %xmm10
  15553. vaesenc %xmm0, %xmm11, %xmm11
  15554. vaesenc %xmm0, %xmm12, %xmm12
  15555. vaesenc %xmm0, %xmm13, %xmm13
  15556. vaesenc %xmm0, %xmm14, %xmm14
  15557. vaesenc %xmm0, %xmm15, %xmm15
  15558. # aesenc_pclmul_n
  15559. vmovdqu 112(%rcx), %xmm1
  15560. vmovdqu (%rsp), %xmm0
  15561. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm1, %xmm1
  15562. vpxor %xmm2, %xmm5, %xmm5
  15563. vpclmulqdq $16, %xmm0, %xmm1, %xmm2
  15564. vpxor %xmm3, %xmm5, %xmm5
  15565. vpclmulqdq $0x01, %xmm0, %xmm1, %xmm3
  15566. vpxor %xmm4, %xmm6, %xmm6
  15567. vpclmulqdq $0x00, %xmm0, %xmm1, %xmm4
  15568. vpclmulqdq $0x11, %xmm0, %xmm1, %xmm1
  15569. vmovdqu 128(%rdi), %xmm0
  15570. vpxor %xmm1, %xmm7, %xmm7
  15571. vaesenc %xmm0, %xmm8, %xmm8
  15572. vaesenc %xmm0, %xmm9, %xmm9
  15573. vaesenc %xmm0, %xmm10, %xmm10
  15574. vaesenc %xmm0, %xmm11, %xmm11
  15575. vaesenc %xmm0, %xmm12, %xmm12
  15576. vaesenc %xmm0, %xmm13, %xmm13
  15577. vaesenc %xmm0, %xmm14, %xmm14
  15578. vaesenc %xmm0, %xmm15, %xmm15
  15579. # aesenc_pclmul_l
  15580. vpxor %xmm2, %xmm5, %xmm5
  15581. vpxor %xmm4, %xmm6, %xmm6
  15582. vpxor %xmm3, %xmm5, %xmm5
  15583. vpslldq $8, %xmm5, %xmm1
  15584. vpsrldq $8, %xmm5, %xmm5
  15585. vmovdqu 144(%rdi), %xmm4
  15586. vmovdqu L_avx2_aes_gcm_mod2_128(%rip), %xmm0
  15587. vaesenc %xmm4, %xmm8, %xmm8
  15588. vpxor %xmm1, %xmm6, %xmm6
  15589. vpxor %xmm5, %xmm7, %xmm7
  15590. vpclmulqdq $16, %xmm0, %xmm6, %xmm3
  15591. vaesenc %xmm4, %xmm9, %xmm9
  15592. vaesenc %xmm4, %xmm10, %xmm10
  15593. vaesenc %xmm4, %xmm11, %xmm11
  15594. vpshufd $0x4e, %xmm6, %xmm6
  15595. vpxor %xmm3, %xmm6, %xmm6
  15596. vpclmulqdq $16, %xmm0, %xmm6, %xmm3
  15597. vaesenc %xmm4, %xmm12, %xmm12
  15598. vaesenc %xmm4, %xmm13, %xmm13
  15599. vaesenc %xmm4, %xmm14, %xmm14
  15600. vpshufd $0x4e, %xmm6, %xmm6
  15601. vpxor %xmm3, %xmm6, %xmm6
  15602. vpxor %xmm7, %xmm6, %xmm6
  15603. vaesenc %xmm4, %xmm15, %xmm15
  15604. cmpl $11, %esi
  15605. vmovdqu 160(%rdi), %xmm7
  15606. jl L_AES_GCM_decrypt_update_avx2_aesenc_128_ghash_avx_done
  15607. vaesenc %xmm7, %xmm8, %xmm8
  15608. vaesenc %xmm7, %xmm9, %xmm9
  15609. vaesenc %xmm7, %xmm10, %xmm10
  15610. vaesenc %xmm7, %xmm11, %xmm11
  15611. vaesenc %xmm7, %xmm12, %xmm12
  15612. vaesenc %xmm7, %xmm13, %xmm13
  15613. vaesenc %xmm7, %xmm14, %xmm14
  15614. vaesenc %xmm7, %xmm15, %xmm15
  15615. vmovdqu 176(%rdi), %xmm7
  15616. vaesenc %xmm7, %xmm8, %xmm8
  15617. vaesenc %xmm7, %xmm9, %xmm9
  15618. vaesenc %xmm7, %xmm10, %xmm10
  15619. vaesenc %xmm7, %xmm11, %xmm11
  15620. vaesenc %xmm7, %xmm12, %xmm12
  15621. vaesenc %xmm7, %xmm13, %xmm13
  15622. vaesenc %xmm7, %xmm14, %xmm14
  15623. vaesenc %xmm7, %xmm15, %xmm15
  15624. cmpl $13, %esi
  15625. vmovdqu 192(%rdi), %xmm7
  15626. jl L_AES_GCM_decrypt_update_avx2_aesenc_128_ghash_avx_done
  15627. vaesenc %xmm7, %xmm8, %xmm8
  15628. vaesenc %xmm7, %xmm9, %xmm9
  15629. vaesenc %xmm7, %xmm10, %xmm10
  15630. vaesenc %xmm7, %xmm11, %xmm11
  15631. vaesenc %xmm7, %xmm12, %xmm12
  15632. vaesenc %xmm7, %xmm13, %xmm13
  15633. vaesenc %xmm7, %xmm14, %xmm14
  15634. vaesenc %xmm7, %xmm15, %xmm15
  15635. vmovdqu 208(%rdi), %xmm7
  15636. vaesenc %xmm7, %xmm8, %xmm8
  15637. vaesenc %xmm7, %xmm9, %xmm9
  15638. vaesenc %xmm7, %xmm10, %xmm10
  15639. vaesenc %xmm7, %xmm11, %xmm11
  15640. vaesenc %xmm7, %xmm12, %xmm12
  15641. vaesenc %xmm7, %xmm13, %xmm13
  15642. vaesenc %xmm7, %xmm14, %xmm14
  15643. vaesenc %xmm7, %xmm15, %xmm15
  15644. vmovdqu 224(%rdi), %xmm7
  15645. L_AES_GCM_decrypt_update_avx2_aesenc_128_ghash_avx_done:
  15646. # aesenc_last
  15647. vaesenclast %xmm7, %xmm8, %xmm8
  15648. vaesenclast %xmm7, %xmm9, %xmm9
  15649. vaesenclast %xmm7, %xmm10, %xmm10
  15650. vaesenclast %xmm7, %xmm11, %xmm11
  15651. vmovdqu (%rcx), %xmm0
  15652. vmovdqu 16(%rcx), %xmm1
  15653. vmovdqu 32(%rcx), %xmm2
  15654. vmovdqu 48(%rcx), %xmm3
  15655. vpxor %xmm0, %xmm8, %xmm8
  15656. vpxor %xmm1, %xmm9, %xmm9
  15657. vpxor %xmm2, %xmm10, %xmm10
  15658. vpxor %xmm3, %xmm11, %xmm11
  15659. vmovdqu %xmm8, (%rdx)
  15660. vmovdqu %xmm9, 16(%rdx)
  15661. vmovdqu %xmm10, 32(%rdx)
  15662. vmovdqu %xmm11, 48(%rdx)
  15663. vaesenclast %xmm7, %xmm12, %xmm12
  15664. vaesenclast %xmm7, %xmm13, %xmm13
  15665. vaesenclast %xmm7, %xmm14, %xmm14
  15666. vaesenclast %xmm7, %xmm15, %xmm15
  15667. vmovdqu 64(%rcx), %xmm0
  15668. vmovdqu 80(%rcx), %xmm1
  15669. vmovdqu 96(%rcx), %xmm2
  15670. vmovdqu 112(%rcx), %xmm3
  15671. vpxor %xmm0, %xmm12, %xmm12
  15672. vpxor %xmm1, %xmm13, %xmm13
  15673. vpxor %xmm2, %xmm14, %xmm14
  15674. vpxor %xmm3, %xmm15, %xmm15
  15675. vmovdqu %xmm12, 64(%rdx)
  15676. vmovdqu %xmm13, 80(%rdx)
  15677. vmovdqu %xmm14, 96(%rdx)
  15678. vmovdqu %xmm15, 112(%rdx)
  15679. # aesenc_128_ghash - end
  15680. addl $0x80, %r14d
  15681. cmpl %r13d, %r14d
  15682. jl L_AES_GCM_decrypt_update_avx2_ghash_128
  15683. vmovdqu (%rsp), %xmm5
  15684. vmovdqu 128(%rsp), %xmm4
  15685. vmovdqu 144(%rsp), %xmm15
  15686. L_AES_GCM_decrypt_update_avx2_done_128:
  15687. cmpl %r8d, %r14d
  15688. jge L_AES_GCM_decrypt_update_avx2_done_dec
  15689. movl %r8d, %r13d
  15690. andl $0xfffffff0, %r13d
  15691. cmpl %r13d, %r14d
  15692. jge L_AES_GCM_decrypt_update_avx2_last_block_done
  15693. L_AES_GCM_decrypt_update_avx2_last_block_start:
  15694. vmovdqu (%r11,%r14,1), %xmm11
  15695. vpshufb L_avx2_aes_gcm_bswap_epi64(%rip), %xmm4, %xmm10
  15696. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm11, %xmm12
  15697. vpaddd L_avx2_aes_gcm_one(%rip), %xmm4, %xmm4
  15698. vpxor %xmm6, %xmm12, %xmm12
  15699. # aesenc_gfmul_sb
  15700. vpclmulqdq $0x01, %xmm5, %xmm12, %xmm2
  15701. vpclmulqdq $16, %xmm5, %xmm12, %xmm3
  15702. vpclmulqdq $0x00, %xmm5, %xmm12, %xmm1
  15703. vpclmulqdq $0x11, %xmm5, %xmm12, %xmm8
  15704. vpxor (%rdi), %xmm10, %xmm10
  15705. vaesenc 16(%rdi), %xmm10, %xmm10
  15706. vpxor %xmm2, %xmm3, %xmm3
  15707. vpslldq $8, %xmm3, %xmm2
  15708. vpsrldq $8, %xmm3, %xmm3
  15709. vaesenc 32(%rdi), %xmm10, %xmm10
  15710. vpxor %xmm1, %xmm2, %xmm2
  15711. vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm2, %xmm1
  15712. vaesenc 48(%rdi), %xmm10, %xmm10
  15713. vaesenc 64(%rdi), %xmm10, %xmm10
  15714. vaesenc 80(%rdi), %xmm10, %xmm10
  15715. vpshufd $0x4e, %xmm2, %xmm2
  15716. vpxor %xmm1, %xmm2, %xmm2
  15717. vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm2, %xmm1
  15718. vaesenc 96(%rdi), %xmm10, %xmm10
  15719. vaesenc 112(%rdi), %xmm10, %xmm10
  15720. vaesenc 128(%rdi), %xmm10, %xmm10
  15721. vpshufd $0x4e, %xmm2, %xmm2
  15722. vaesenc 144(%rdi), %xmm10, %xmm10
  15723. vpxor %xmm3, %xmm8, %xmm8
  15724. vpxor %xmm8, %xmm2, %xmm2
  15725. vmovdqu 160(%rdi), %xmm0
  15726. cmpl $11, %esi
  15727. jl L_AES_GCM_decrypt_update_avx2_aesenc_gfmul_sb_last
  15728. vaesenc %xmm0, %xmm10, %xmm10
  15729. vaesenc 176(%rdi), %xmm10, %xmm10
  15730. vmovdqu 192(%rdi), %xmm0
  15731. cmpl $13, %esi
  15732. jl L_AES_GCM_decrypt_update_avx2_aesenc_gfmul_sb_last
  15733. vaesenc %xmm0, %xmm10, %xmm10
  15734. vaesenc 208(%rdi), %xmm10, %xmm10
  15735. vmovdqu 224(%rdi), %xmm0
  15736. L_AES_GCM_decrypt_update_avx2_aesenc_gfmul_sb_last:
  15737. vaesenclast %xmm0, %xmm10, %xmm10
  15738. vpxor %xmm1, %xmm2, %xmm6
  15739. vpxor %xmm11, %xmm10, %xmm10
  15740. vmovdqu %xmm10, (%r10,%r14,1)
  15741. addl $16, %r14d
  15742. cmpl %r13d, %r14d
  15743. jl L_AES_GCM_decrypt_update_avx2_last_block_start
  15744. L_AES_GCM_decrypt_update_avx2_last_block_done:
  15745. L_AES_GCM_decrypt_update_avx2_done_dec:
  15746. vmovdqu %xmm6, (%r9)
  15747. vmovdqu %xmm4, (%r12)
  15748. vzeroupper
  15749. addq $0xa8, %rsp
  15750. popq %r14
  15751. popq %r12
  15752. popq %r13
  15753. repz retq
  15754. #ifndef __APPLE__
  15755. .size AES_GCM_decrypt_update_avx2,.-AES_GCM_decrypt_update_avx2
  15756. #endif /* __APPLE__ */
  15757. #ifndef __APPLE__
  15758. .text
  15759. .globl AES_GCM_decrypt_final_avx2
  15760. .type AES_GCM_decrypt_final_avx2,@function
  15761. .align 16
  15762. AES_GCM_decrypt_final_avx2:
  15763. #else
  15764. .section __TEXT,__text
  15765. .globl _AES_GCM_decrypt_final_avx2
  15766. .p2align 4
  15767. _AES_GCM_decrypt_final_avx2:
  15768. #endif /* __APPLE__ */
  15769. pushq %r13
  15770. pushq %rbp
  15771. movl %ecx, %r10d
  15772. movl %r8d, %r11d
  15773. movq 24(%rsp), %rax
  15774. movq 32(%rsp), %rbp
  15775. subq $16, %rsp
  15776. vmovdqu (%rdi), %xmm4
  15777. vmovdqu (%r9), %xmm5
  15778. vmovdqu (%rax), %xmm6
  15779. vpsrlq $63, %xmm5, %xmm1
  15780. vpsllq $0x01, %xmm5, %xmm0
  15781. vpslldq $8, %xmm1, %xmm1
  15782. vpor %xmm1, %xmm0, %xmm0
  15783. vpshufd $0xff, %xmm5, %xmm5
  15784. vpsrad $31, %xmm5, %xmm5
  15785. vpand L_avx2_aes_gcm_mod2_128(%rip), %xmm5, %xmm5
  15786. vpxor %xmm0, %xmm5, %xmm5
  15787. # calc_tag
  15788. shlq $3, %r10
  15789. vpinsrq $0x00, %r10, %xmm0, %xmm0
  15790. shlq $3, %r11
  15791. vpinsrq $0x01, %r11, %xmm1, %xmm1
  15792. vpblendd $12, %xmm1, %xmm0, %xmm0
  15793. vpxor %xmm4, %xmm0, %xmm0
  15794. # ghash_gfmul_red
  15795. vpclmulqdq $16, %xmm5, %xmm0, %xmm7
  15796. vpclmulqdq $0x01, %xmm5, %xmm0, %xmm3
  15797. vpclmulqdq $0x00, %xmm5, %xmm0, %xmm2
  15798. vpxor %xmm3, %xmm7, %xmm7
  15799. vpslldq $8, %xmm7, %xmm3
  15800. vpsrldq $8, %xmm7, %xmm7
  15801. vpxor %xmm2, %xmm3, %xmm3
  15802. vpclmulqdq $0x11, %xmm5, %xmm0, %xmm0
  15803. vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm3, %xmm2
  15804. vpshufd $0x4e, %xmm3, %xmm3
  15805. vpxor %xmm2, %xmm3, %xmm3
  15806. vpclmulqdq $16, L_avx2_aes_gcm_mod2_128(%rip), %xmm3, %xmm2
  15807. vpshufd $0x4e, %xmm3, %xmm3
  15808. vpxor %xmm7, %xmm0, %xmm0
  15809. vpxor %xmm3, %xmm0, %xmm0
  15810. vpxor %xmm2, %xmm0, %xmm0
  15811. vpshufb L_avx2_aes_gcm_bswap_mask(%rip), %xmm0, %xmm0
  15812. vpxor %xmm6, %xmm0, %xmm0
  15813. # cmp_tag
  15814. cmpl $16, %edx
  15815. je L_AES_GCM_decrypt_final_avx2_cmp_tag_16
  15816. xorq %rcx, %rcx
  15817. xorq %r9, %r9
  15818. vmovdqu %xmm0, (%rsp)
  15819. L_AES_GCM_decrypt_final_avx2_cmp_tag_loop:
  15820. movzbl (%rsp,%rcx,1), %r13d
  15821. xorb (%rsi,%rcx,1), %r13b
  15822. orb %r13b, %r9b
  15823. incl %ecx
  15824. cmpl %edx, %ecx
  15825. jne L_AES_GCM_decrypt_final_avx2_cmp_tag_loop
  15826. cmpb $0x00, %r9b
  15827. sete %r9b
  15828. jmp L_AES_GCM_decrypt_final_avx2_cmp_tag_done
  15829. L_AES_GCM_decrypt_final_avx2_cmp_tag_16:
  15830. vmovdqu (%rsi), %xmm1
  15831. vpcmpeqb %xmm1, %xmm0, %xmm0
  15832. vpmovmskb %xmm0, %rcx
  15833. # %%edx == 0xFFFF then return 1 else => return 0
  15834. xorl %r9d, %r9d
  15835. cmpl $0xffff, %ecx
  15836. sete %r9b
  15837. L_AES_GCM_decrypt_final_avx2_cmp_tag_done:
  15838. movl %r9d, (%rbp)
  15839. vzeroupper
  15840. addq $16, %rsp
  15841. popq %rbp
  15842. popq %r13
  15843. repz retq
  15844. #ifndef __APPLE__
  15845. .size AES_GCM_decrypt_final_avx2,.-AES_GCM_decrypt_final_avx2
  15846. #endif /* __APPLE__ */
  15847. #endif /* WOLFSSL_AESGCM_STREAM */
  15848. #endif /* HAVE_INTEL_AVX2 */
  15849. #endif /* WOLFSSL_X86_64_BUILD */
  15850. #if defined(__linux__) && defined(__ELF__)
  15851. .section .note.GNU-stack,"",%progbits
  15852. #endif