/external/llvm/test/MC/X86/ |
H A D | intel-syntax-invalid-scale.s | 7 lea rax, [rdi + rdx*64] 9 lea rax, [rdi + rdx*32] 11 lea rax, [rdi + rdx*16]
|
H A D | x86-64-avx512cd.s | 27 // CHECK: vplzcntq 4064(%rdx), %zmm21 29 vplzcntq 4064(%rdx), %zmm21 31 // CHECK: vplzcntq 4096(%rdx), %zmm21 33 vplzcntq 4096(%rdx), %zmm21 35 // CHECK: vplzcntq -4096(%rdx), %zmm21 37 vplzcntq -4096(%rdx), %zmm21 39 // CHECK: vplzcntq -4128(%rdx), %zmm21 41 vplzcntq -4128(%rdx), %zmm21 43 // CHECK: vplzcntq 1016(%rdx){1to8}, %zmm21 45 vplzcntq 1016(%rdx){ [all...] |
H A D | x86-64-avx512cd_vl.s | 27 // CHECK: vplzcntq 2032(%rdx), %xmm18 29 vplzcntq 2032(%rdx), %xmm18 31 // CHECK: vplzcntq 2048(%rdx), %xmm18 33 vplzcntq 2048(%rdx), %xmm18 35 // CHECK: vplzcntq -2048(%rdx), %xmm18 37 vplzcntq -2048(%rdx), %xmm18 39 // CHECK: vplzcntq -2064(%rdx), %xmm18 41 vplzcntq -2064(%rdx), %xmm18 43 // CHECK: vplzcntq 1016(%rdx){1to2}, %xmm18 45 vplzcntq 1016(%rdx){ [all...] |
H A D | x86-64-avx512dq_vl.s | 27 // CHECK: vpmullq 2032(%rdx), %xmm17, %xmm26 29 vpmullq 2032(%rdx), %xmm17, %xmm26 31 // CHECK: vpmullq 2048(%rdx), %xmm17, %xmm26 33 vpmullq 2048(%rdx), %xmm17, %xmm26 35 // CHECK: vpmullq -2048(%rdx), %xmm17, %xmm26 37 vpmullq -2048(%rdx), %xmm17, %xmm26 39 // CHECK: vpmullq -2064(%rdx), %xmm17, %xmm26 41 vpmullq -2064(%rdx), %xmm17, %xmm26 43 // CHECK: vpmullq 1016(%rdx){1to2}, %xmm17, %xmm26 45 vpmullq 1016(%rdx){ [all...] |
H A D | avx512bw-encoding.s | 23 // CHECK: vpblendmb 8128(%rdx), %zmm18, %zmm17 25 vpblendmb 8128(%rdx), %zmm18, %zmm17 27 // CHECK: vpblendmb 8192(%rdx), %zmm18, %zmm17 29 vpblendmb 8192(%rdx), %zmm18, %zmm17 31 // CHECK: vpblendmb -8192(%rdx), %zmm18, %zmm17 33 vpblendmb -8192(%rdx), %zmm18, %zmm17 35 // CHECK: vpblendmb -8256(%rdx), %zmm18, %zmm17 37 vpblendmb -8256(%rdx), %zmm18, %zmm17 59 // CHECK: vpblendmw 8128(%rdx), %zmm20, %zmm26 61 vpblendmw 8128(%rdx), [all...] |
H A D | x86-64-avx512bw.s | 23 // CHECK: vpaddb 8128(%rdx), %zmm24, %zmm19 25 vpaddb 8128(%rdx), %zmm24, %zmm19 27 // CHECK: vpaddb 8192(%rdx), %zmm24, %zmm19 29 vpaddb 8192(%rdx), %zmm24, %zmm19 31 // CHECK: vpaddb -8192(%rdx), %zmm24, %zmm19 33 vpaddb -8192(%rdx), %zmm24, %zmm19 35 // CHECK: vpaddb -8256(%rdx), %zmm24, %zmm19 37 vpaddb -8256(%rdx), %zmm24, %zmm19 59 // CHECK: vpaddw 8128(%rdx), %zmm24, %zmm17 61 vpaddw 8128(%rdx), [all...] |
H A D | x86-64-avx512f_vl.s | 27 // CHECK: vaddpd 2032(%rdx), %xmm29, %xmm20 29 vaddpd 2032(%rdx), %xmm29, %xmm20 31 // CHECK: vaddpd 2048(%rdx), %xmm29, %xmm20 33 vaddpd 2048(%rdx), %xmm29, %xmm20 35 // CHECK: vaddpd -2048(%rdx), %xmm29, %xmm20 37 vaddpd -2048(%rdx), %xmm29, %xmm20 39 // CHECK: vaddpd -2064(%rdx), %xmm29, %xmm20 41 vaddpd -2064(%rdx), %xmm29, %xmm20 43 // CHECK: vaddpd 1016(%rdx){1to2}, %xmm29, %xmm20 45 vaddpd 1016(%rdx){ [all...] |
H A D | x86-64-avx512dq.s | 27 // CHECK: vpmullq 8128(%rdx), %zmm24, %zmm18 29 vpmullq 8128(%rdx), %zmm24, %zmm18 31 // CHECK: vpmullq 8192(%rdx), %zmm24, %zmm18 33 vpmullq 8192(%rdx), %zmm24, %zmm18 35 // CHECK: vpmullq -8192(%rdx), %zmm24, %zmm18 37 vpmullq -8192(%rdx), %zmm24, %zmm18 39 // CHECK: vpmullq -8256(%rdx), %zmm24, %zmm18 41 vpmullq -8256(%rdx), %zmm24, %zmm18 43 // CHECK: vpmullq 1016(%rdx){1to8}, %zmm24, %zmm18 45 vpmullq 1016(%rdx){ [all...] |
H A D | avx512vl-encoding.s | 27 // CHECK: vblendmpd 2032(%rdx), %xmm20, %xmm27 29 vblendmpd 2032(%rdx), %xmm20, %xmm27 31 // CHECK: vblendmpd 2048(%rdx), %xmm20, %xmm27 33 vblendmpd 2048(%rdx), %xmm20, %xmm27 35 // CHECK: vblendmpd -2048(%rdx), %xmm20, %xmm27 37 vblendmpd -2048(%rdx), %xmm20, %xmm27 39 // CHECK: vblendmpd -2064(%rdx), %xmm20, %xmm27 41 vblendmpd -2064(%rdx), %xmm20, %xmm27 43 // CHECK: vblendmpd 1016(%rdx){1to2}, %xmm20, %xmm27 45 vblendmpd 1016(%rdx){ [all...] |
H A D | intel-syntax-avx512.s | 67 // CHECK: vcmppd k2, zmm12, zmmword ptr [rdx + 8128], 123 69 vcmppd k2,zmm12,zmmword PTR [rdx+0x1fc0],0x7b 71 // CHECK: vcmppd k2, zmm12, zmmword ptr [rdx + 8192], 123 73 vcmppd k2,zmm12,zmmword PTR [rdx+0x2000],0x7b 75 // CHECK: vcmppd k2, zmm12, zmmword ptr [rdx - 8192], 123 77 vcmppd k2,zmm12,zmmword PTR [rdx-0x2000],0x7b 79 // CHECK: vcmppd k2, zmm12, zmmword ptr [rdx - 8256], 123 81 vcmppd k2,zmm12,zmmword PTR [rdx-0x2040],0x7b 83 // CHECK: vcmppd k2, zmm12, qword ptr [rdx + 1016]{1to8}, 123 85 vcmppd k2,zmm12,QWORD PTR [rdx [all...] |
H A D | avx512-encodings.s | 27 // CHECK: vaddpd 8128(%rdx), %zmm27, %zmm8 29 vaddpd 8128(%rdx), %zmm27, %zmm8 31 // CHECK: vaddpd 8192(%rdx), %zmm27, %zmm8 33 vaddpd 8192(%rdx), %zmm27, %zmm8 35 // CHECK: vaddpd -8192(%rdx), %zmm27, %zmm8 37 vaddpd -8192(%rdx), %zmm27, %zmm8 39 // CHECK: vaddpd -8256(%rdx), %zmm27, %zmm8 41 vaddpd -8256(%rdx), %zmm27, %zmm8 43 // CHECK: vaddpd 1016(%rdx){1to8}, %zmm27, %zmm8 45 vaddpd 1016(%rdx){ [all...] |
H A D | x86-64-avx512bw_vl.s | 23 // CHECK: vpaddb 2032(%rdx), %xmm17, %xmm26 25 vpaddb 2032(%rdx), %xmm17, %xmm26 27 // CHECK: vpaddb 2048(%rdx), %xmm17, %xmm26 29 vpaddb 2048(%rdx), %xmm17, %xmm26 31 // CHECK: vpaddb -2048(%rdx), %xmm17, %xmm26 33 vpaddb -2048(%rdx), %xmm17, %xmm26 35 // CHECK: vpaddb -2064(%rdx), %xmm17, %xmm26 37 vpaddb -2064(%rdx), %xmm17, %xmm26 59 // CHECK: vpaddb 4064(%rdx), %ymm27, %ymm26 61 vpaddb 4064(%rdx), [all...] |
H A D | avx512ifma-encoding.s | 39 vpmadd52luq 0x1fc0(%rdx), %zmm29, %zmm30 40 //CHECK: vpmadd52luq 8128(%rdx), %zmm29, %zmm30 43 vpmadd52luq 0x2000(%rdx), %zmm29, %zmm30 44 //CHECK: vpmadd52luq 8192(%rdx), %zmm29, %zmm30 47 vpmadd52luq -0x2000(%rdx), %zmm29, %zmm30 48 //CHECK: vpmadd52luq -8192(%rdx), %zmm29, %zmm30 51 vpmadd52luq -0x2040(%rdx), %zmm29, %zmm30 52 //CHECK: vpmadd52luq -8256(%rdx), %zmm29, %zmm30 55 vpmadd52luq 0x3f8(%rdx){1to8}, %zmm29, %zmm30 56 //CHECK: vpmadd52luq 1016(%rdx){ [all...] |
H A D | avx512ifmavl-encoding.s | 43 vpmadd52luq 0x7f0(%rdx), %xmm29, %xmm30 44 //CHECK: vpmadd52luq 2032(%rdx), %xmm29, %xmm30 47 vpmadd52luq 0x800(%rdx), %xmm29, %xmm30 48 //CHECK: vpmadd52luq 2048(%rdx), %xmm29, %xmm30 51 vpmadd52luq -0x800(%rdx), %xmm29, %xmm30 52 //CHECK: vpmadd52luq -2048(%rdx), %xmm29, %xmm30 55 vpmadd52luq -0x810(%rdx), %xmm29, %xmm30 56 //CHECK: vpmadd52luq -2064(%rdx), %xmm29, %xmm30 59 vpmadd52luq 0x3f8(%rdx){1to2}, %xmm29, %xmm30 60 //CHECK: vpmadd52luq 1016(%rdx){ [all...] |
H A D | avx512vbmi-encoding.s | 19 vpermb 0x7f0(%rdx), %xmm29, %xmm30 20 //CHECK: vpermb 2032(%rdx), %xmm29, %xmm30 23 vpermb 0x800(%rdx), %xmm29, %xmm30 24 //CHECK: vpermb 2048(%rdx), %xmm29, %xmm30 27 vpermb -0x800(%rdx), %xmm29, %xmm30 28 //CHECK: vpermb -2048(%rdx), %xmm29, %xmm30 31 vpermb -0x810(%rdx), %xmm29, %xmm30 32 //CHECK: vpermb -2064(%rdx), %xmm29, %xmm30 55 vpermb 0xfe0(%rdx), %ymm29, %ymm30 56 //CHECK: vpermb 4064(%rdx), [all...] |
/external/boringssl/src/crypto/curve25519/asm/ |
H A D | x25519-asm-x86_64.S | 68 movq 8(%rdi),%rdx 80 add %r12,%rdx 81 mov %rdx,%r12 83 and %rax,%rdx 103 cmp %rax,%rdx 115 sub %rax,%rdx 120 movq %rdx,8(%rdi) 146 mov %rdx,%rcx 147 movq 24(%rsi),%rdx 148 imulq $19,%rdx, [all...] |
/external/mesa3d/src/mesa/x86-64/ |
H A D | xform4.S | 55 * rdx = source 57 movl V4F_COUNT(%rdx), %ecx /* count */ 58 movzbl V4F_STRIDE(%rdx), %eax /* stride */ 69 movq V4F_START(%rdx), %rdx /* ptr to first src vertex */ 72 prefetch 16(%rdx) 82 movups (%rdx), %xmm8 /* ox | oy | oz | ow */ 86 addq %rax, %rdx 96 prefetch 16(%rdx) 140 movl V4F_COUNT(%rdx), [all...] |
/external/boringssl/linux-x86_64/crypto/bn/ |
H A D | x86_64-mont.S | 20 cmpq %rsi,%rdx 74 movq %rdx,%r12 88 movq %rdx,%r11 93 adcq $0,%rdx 94 movq %rdx,%r13 103 adcq $0,%rdx 106 adcq $0,%rdx 108 movq %rdx,%r13 114 adcq $0,%rdx 116 movq %rdx, [all...] |
/external/boringssl/mac-x86_64/crypto/bn/ |
H A D | x86_64-mont.S | 19 cmpq %rsi,%rdx 73 movq %rdx,%r12 87 movq %rdx,%r11 92 adcq $0,%rdx 93 movq %rdx,%r13 102 adcq $0,%rdx 105 adcq $0,%rdx 107 movq %rdx,%r13 113 adcq $0,%rdx 115 movq %rdx, [all...] |
/external/syslinux/gnu-efi/gnu-efi-3.0/gnuefi/ |
H A D | crt0-efi-x86_64.S | 44 pushq %rdx 51 popq %rdx 53 pushq %rdx
|
/external/libunwind/src/x86_64/ |
H A D | longjmp.S | 30 mov %rdx, %rax /* set up return-value */
|
/external/valgrind/none/tests/amd64/ |
H A D | cmpxchg.c | 14 ULong rdx; variable 24 rdx = 0x11111111; rax = 0x22222222; 34 "\tpush %rdx\n" 40 "\tmov " VG_SYM(rdx) ",%rdx\n" 45 "\tmov " VG_SYM(rdx) "(%rip),%rdx\n" 57 "\tpop %rdx\n" 68 rdx = 0x99999999; rax = 0x77777777; 78 "\tpush %rdx\ [all...] |
/external/zlib/src/contrib/amd64/ |
H A D | amd64-match.S | 269 mov $(-MAX_MATCH_8), %rdx 275 prefetcht1 (%windowbestlen, %rdx) 276 prefetcht1 (%prev, %rdx) 280 * adjust %rdx so that it is offset to the exact byte that mismatched. 293 movdqu (%windowbestlen, %rdx), %xmm1 294 movdqu (%prev, %rdx), %xmm2 296 movdqu 16(%windowbestlen, %rdx), %xmm3 297 movdqu 16(%prev, %rdx), %xmm4 299 movdqu 32(%windowbestlen, %rdx), %xmm5 300 movdqu 32(%prev, %rdx), [all...] |
/external/syslinux/com32/lib/libgcc/ |
H A D | __muldi3.S | 56 addq %rcx,%rdx 57 addq %rsi,%rdx 70 pushq %rdx 73 addq %rsi,%rdx 76 addq %rcx,%rdx
|
/external/boringssl/src/crypto/bn/asm/ |
H A D | x86_64-mont.pl | 66 $bp="%rdx"; # const BN_ULONG *bp, 171 mov %rdx,$hi0 176 adc \$0,%rdx 177 mov %rdx,$hi1 186 adc \$0,%rdx 189 adc \$0,%rdx 191 mov %rdx,$hi1 197 adc \$0,%rdx 199 mov %rdx,$lo0 207 adc \$0,%rdx [all...] |