/external/llvm/test/MC/ARM/ |
H A D | neon-table-encoding.s | 4 vtbl.8 d16, {d16, d17}, d18 5 vtbl.8 d16, {d16, d17, d18}, d20 6 vtbl.8 d16, {d16, d17, d18, d19}, d20 9 @ CHECK: vtbl.8 d16, {d16, d17}, d18 @ encoding: [0xa2,0x09,0xf0,0xf3] 10 @ CHECK: vtbl.8 d16, {d16, d17, d18}, d20 @ encoding: [0xa4,0x0a,0xf0,0xf3] 11 @ CHECK: vtbl.8 d16, {d16, d17, d18, d19}, d20 @ encoding: [0xa4,0x0b,0xf0,0xf3] 14 vtbx.8 d18, {d16}, d17 15 vtbx.8 d19, {d16, d17}, d18 16 vtbx.8 d20, {d16, d17, d18}, d21 17 vtbx.8 d20, {d16, d17, d18, d1 [all...] |
H A D | neont2-table-encoding.s | 6 vtbl.8 d16, {d16, d17}, d18 7 vtbl.8 d16, {d16, d17, d18}, d20 8 vtbl.8 d16, {d16, d17, d18, d19}, d20 11 @ CHECK: vtbl.8 d16, {d16, d17}, d18 @ encoding: [0xf0,0xff,0xa2,0x09] 12 @ CHECK: vtbl.8 d16, {d16, d17, d18}, d20 @ encoding: [0xf0,0xff,0xa4,0x0a] 13 @ CHECK: vtbl.8 d16, {d16, d17, d18, d19}, d20 @ encoding: [0xf0,0xff,0xa4,0x0b] 16 vtbx.8 d18, {d16}, d17 17 vtbx.8 d19, {d16, d17}, d18 18 vtbx.8 d20, {d16, d17, d18}, d21 19 vtbx.8 d20, {d16, d17, d18, d1 [all...] |
H A D | neon-mul-accum-encoding.s | 3 vmla.i8 d16, d18, d17 4 vmla.i16 d16, d18, d17 5 vmla.i32 d16, d18, d17 6 vmla.f32 d16, d18, d17 13 @ CHECK: vmla.i8 d16, d18, d17 @ encoding: [0xa1,0x09,0x42,0xf2] 14 @ CHECK: vmla.i16 d16, d18, d17 @ encoding: [0xa1,0x09,0x52,0xf2] 15 @ CHECK: vmla.i32 d16, d18, d17 @ encoding: [0xa1,0x09,0x62,0xf2] 16 @ CHECK: vmla.f32 d16, d18, d17 @ encoding: [0xb1,0x0d,0x42,0xf2] 24 vmlal.s8 q8, d19, d18 25 vmlal.s16 q8, d19, d18 [all...] |
H A D | neont2-mul-accum-encoding.s | 5 vmla.i8 d16, d18, d17 6 vmla.i16 d16, d18, d17 7 vmla.i32 d16, d18, d17 8 vmla.f32 d16, d18, d17 15 @ CHECK: vmla.i8 d16, d18, d17 @ encoding: [0x42,0xef,0xa1,0x09] 16 @ CHECK: vmla.i16 d16, d18, d17 @ encoding: [0x52,0xef,0xa1,0x09] 17 @ CHECK: vmla.i32 d16, d18, d17 @ encoding: [0x62,0xef,0xa1,0x09] 18 @ CHECK: vmla.f32 d16, d18, d17 @ encoding: [0x42,0xef,0xb1,0x0d] 26 vmlal.s8 q8, d19, d18 27 vmlal.s16 q8, d19, d18 [all...] |
H A D | neont2-vld-encoding.s | 28 @ CHECK: vld2.8 {d16, d17, d18, d19}, [r0:64] @ encoding: [0x60,0xf9,0x1f,0x03] 29 vld2.8 {d16, d17, d18, d19}, [r0:64] 30 @ CHECK: vld2.16 {d16, d17, d18, d19}, [r0:128] @ encoding: [0x60,0xf9,0x6f,0x03] 31 vld2.16 {d16, d17, d18, d19}, [r0:128] 32 @ CHECK: vld2.32 {d16, d17, d18, d19}, [r0:256] @ encoding: [0x60,0xf9,0xbf,0x03] 33 vld2.32 {d16, d17, d18, d19}, [r0:256] 35 @ CHECK: vld3.8 {d16, d17, d18}, [r0:64] @ encoding: [0x60,0xf9,0x1f,0x04] 36 vld3.8 {d16, d17, d18}, [r0:64] 37 @ CHECK: vld3.16 {d16, d17, d18}, [r0] @ encoding: [0x60,0xf9,0x4f,0x04] 38 vld3.16 {d16, d17, d18}, [r [all...] |
H A D | neont2-vst-encoding.s | 28 @ CHECK: vst2.8 {d16, d17, d18, d19}, [r0:64] @ encoding: [0x40,0xf9,0x1f,0x03] 29 vst2.8 {d16, d17, d18, d19}, [r0:64] 30 @ CHECK: vst2.16 {d16, d17, d18, d19}, [r0:128] @ encoding: [0x40,0xf9,0x6f,0x03] 31 vst2.16 {d16, d17, d18, d19}, [r0:128] 32 @ CHECK: vst2.32 {d16, d17, d18, d19}, [r0:256] @ encoding: [0x40,0xf9,0xbf,0x03] 33 vst2.32 {d16, d17, d18, d19}, [r0:256] 35 @ CHECK: vst3.8 {d16, d17, d18}, [r0:64] @ encoding: [0x40,0xf9,0x1f,0x04] 36 vst3.8 {d16, d17, d18}, [r0:64] 37 @ CHECK: vst3.16 {d16, d17, d18}, [r0] @ encoding: [0x40,0xf9,0x4f,0x04] 38 vst3.16 {d16, d17, d18}, [r [all...] |
H A D | neon-absdiff-encoding.s | 45 @ CHECK: vaba.s8 d16, d18, d17 @ encoding: [0xb1,0x07,0x42,0xf2] 46 vaba.s8 d16, d18, d17 47 @ CHECK: vaba.s16 d16, d18, d17 @ encoding: [0xb1,0x07,0x52,0xf2] 48 vaba.s16 d16, d18, d17 49 @ CHECK: vaba.s32 d16, d18, d17 @ encoding: [0xb1,0x07,0x62,0xf2] 50 vaba.s32 d16, d18, d17 51 @ CHECK: vaba.u8 d16, d18, d17 @ encoding: [0xb1,0x07,0x42,0xf3] 52 vaba.u8 d16, d18, d17 53 @ CHECK: vaba.u16 d16, d18, d17 @ encoding: [0xb1,0x07,0x52,0xf3] 54 vaba.u16 d16, d18, d1 [all...] |
H A D | neont2-absdiff-encoding.s | 51 vaba.s8 d16, d18, d17 52 vaba.s16 d16, d18, d17 53 vaba.s32 d16, d18, d17 54 vaba.u8 d16, d18, d17 55 vaba.u16 d16, d18, d17 56 vaba.u32 d16, d18, d17 64 @ CHECK: vaba.s8 d16, d18, d17 @ encoding: [0x42,0xef,0xb1,0x07] 65 @ CHECK: vaba.s16 d16, d18, d17 @ encoding: [0x52,0xef,0xb1,0x07] 66 @ CHECK: vaba.s32 d16, d18, d17 @ encoding: [0x62,0xef,0xb1,0x07] 67 @ CHECK: vaba.u8 d16, d18, d1 [all...] |
H A D | vfp4.s | 7 @ ARM: vfma.f64 d16, d18, d17 @ encoding: [0xa1,0x0b,0xe2,0xee] 8 @ THUMB: vfma.f64 d16, d18, d17 @ encoding: [0xe2,0xee,0xa1,0x0b] 10 @ THUMB_V7EM-ERRORS-NEXT: vfma.f64 d16, d18, d17 11 vfma.f64 d16, d18, d17 18 @ ARM: vfma.f32 d16, d18, d17 @ encoding: [0xb1,0x0c,0x42,0xf2] 19 @ THUMB: vfma.f32 d16, d18, d17 @ encoding: [0x42,0xef,0xb1,0x0c] 21 @ THUMB_V7EM-ERRORS-NEXT: vfma.f32 d16, d18, d17 22 vfma.f32 d16, d18, d17 30 @ ARM: vfnma.f64 d16, d18, d17 @ encoding: [0xe1,0x0b,0xd2,0xee] 31 @ THUMB: vfnma.f64 d16, d18, d1 [all...] |
H A D | neon-vst-encoding.s | 11 vst1.8 {d16, d17, d18}, [r0:64] 12 vst1.8 {d16, d17, d18}, [r0:64]! 13 vst1.8 {d16, d17, d18}, [r0], r3 14 vst1.8 {d16, d17, d18, d19}, [r0:64] 15 vst1.16 {d16, d17, d18, d19}, [r1:64]! 16 vst1.64 {d16, d17, d18, d19}, [r3], r2 26 @ CHECK: vst1.8 {d16, d17, d18}, [r0:64] @ encoding: [0x1f,0x06,0x40,0xf4] 27 @ CHECK: vst1.8 {d16, d17, d18}, [r0:64]! @ encoding: [0x1d,0x06,0x40,0xf4] 28 @ CHECK: vst1.8 {d16, d17, d18}, [r0], r3 @ encoding: [0x03,0x06,0x40,0xf4] 29 @ CHECK: vst1.8 {d16, d17, d18, d1 [all...] |
H A D | neon-vld-encoding.s | 117 vld2.8 {d16, d17, d18, d19}, [r0:64] 118 vld2.16 {d16, d17, d18, d19}, [r0:128] 119 vld2.32 {d16, d17, d18, d19}, [r0:256] 138 @ CHECK: vld2.8 {d16, d17, d18, d19}, [r0:64] @ encoding: [0x1f,0x03,0x60,0xf4] 139 @ CHECK: vld2.16 {d16, d17, d18, d19}, [r0:128] @ encoding: [0x6f,0x03,0x60,0xf4] 140 @ CHECK: vld2.32 {d16, d17, d18, d19}, [r0:256] @ encoding: [0xbf,0x03,0x60,0xf4] 157 vld3.8 {d16, d17, d18}, [r1] 160 vld3.8 {d16, d18, d20}, [r0:64] 168 vld3.u16 {d14, d16, d18}, [r9], r4 169 vld3.i32 {d16, d18, d2 [all...] |
H A D | neont2-dup-encoding.s | 21 vdup.32 d18, d13[0] 27 vdup.32 d18, d13[1] 34 @ CHECK: vdup.32 d18, d13[0] @ encoding: [0xf4,0xff,0x0d,0x2c] 40 @ CHECK: vdup.32 d18, d13[1] @ encoding: [0xfc,0xff,0x0d,0x2c]
|
/external/llvm/test/MC/AArch64/ |
H A D | neon-scalar-neg.s | 20 sqneg d18, d12 25 // CHECK: sqneg d18, d12 // encoding: [0x92,0x79,0xe0,0x7e]
|
H A D | neon-scalar-abs.s | 30 sqabs d18, d12 35 // CHECK: sqabs d18, d12 // encoding: [0x92,0x79,0xe0,0x5e]
|
H A D | neon-scalar-recip.s | 20 frsqrts d8, d22, d18 23 // CHECK: frsqrts d8, d22, d18 // encoding: [0xc8,0xfe,0xf2,0x5e]
|
H A D | neon-scalar-shift-imm.s | 22 srshr d19, d18, #7 24 // CHECK: srshr d19, d18, #7 // encoding: [0x53,0x26,0x79,0x5f] 36 ssra d18, d12, #21 38 // CHECK: ssra d18, d12, #21 // encoding: [0x92,0x15,0x6b,0x5f] 57 ursra d18, d10, #13 59 // CHECK: ursra d18, d10, #13 // encoding: [0x52,0x35,0x73,0x7f]
|
H A D | neon-scalar-saturating-add-sub.s | 62 suqadd d18, d22 67 // CHECK: suqadd d18, d22 // encoding: [0xd2,0x3a,0xe0,0x5e] 76 usqadd d18, d22 81 // CHECK: usqadd d18, d22 // encoding: [0xd2,0x3a,0xe0,0x7e]
|
/external/chromium_org/v8/test/mjsunit/compiler/ |
H A D | regress-177883.js | 68 var i3 = 0, i4 = 0, i5 = 0, i6 = 0, i7 = 0, i8 = 0, i9 = 0, i10 = 0, i11 = 0, i12 = 0, i13 = 0, i14 = 0, i15 = 0, i16 = 0, d17 = 0.0, d18 = 0.0, i19 = 0, i20 = 0, i21 = 0, i22 = 0; 92 d18 = +HEAPF32[i11 >> 2]; 95 HEAPF32[i7 >> 2] = d18; 103 d18 = +HEAPF32[i10 >> 2]; 106 HEAPF32[i6 >> 2] = d18; 111 d18 = +HEAPF32[i14 >> 2]; 114 HEAPF32[i7 >> 2] = d18; 117 d18 = +HEAPF32[i10 >> 2]; 120 HEAPF32[i6 >> 2] = d18; 130 d18 [all...] |
/external/libhevc/common/arm/ |
H A D | ihevc_intra_pred_chroma_dc.s | 116 vmov d18, r9, r9 141 vpadal.u32 d18, d3 150 vpadal.u32 d18, d3 164 vpadal.u32 d18, d3 173 vpadal.u32 d18, d3 179 vmov.32 r1,d18[0] 261 vpadal.u32 d18,d2 270 vpadal.u32 d18,d2 273 vmov.32 r11,d18[0]
|
H A D | ihevc_intra_pred_luma_vert.s | 193 vmov.i64 d18, #0x00000000000000ff 221 vbsl d18, d24, d16 @only select row values from q12(predpixel) 230 vst1.8 {d18,d19}, [r2], r3 248 vmov.i64 d18, #0x00000000000000ff 262 vbsl d18, d24, d16 @only select row values from q12(predpixel) 265 vst1.8 {d18,d19}, [r2], r3 271 vmov.i64 d18, #0x00000000000000ff 292 vbsl d18, d24, d16 @only select row values from q12(predpixel) 295 vst1.8 {d18,d19}, [r2], r3 329 vmov.i64 d18, # [all...] |
/external/chromium_org/third_party/webrtc/modules/audio_coding/codecs/isac/fix/source/ |
H A D | filters_neon.S | 41 vld1.16 {d18}, [r5]! @ x[] 43 vmull.s16 q9, d18, d18 128 vadd.i64 d18, d19 129 vadd.i64 d18, d16 131 vadd.i64 d18, d17 132 vshl.s64 d18, d29 @ Shift left by (-scale). 133 vst1.32 d18[0], [r0]! @ r[i]
|
/external/openssl/crypto/sha/asm/ |
H A D | sha512-armv4.S | 478 vorr d30,d16,d18 479 vand d29,d16,d18 522 vadd.i64 d18,d27 524 vshr.u64 d24,d18,#14 @ 2 528 vshr.u64 d25,d18,#18 529 vshr.u64 d26,d18,#41 531 vsli.64 d24,d18,#50 532 vsli.64 d25,d18,#46 533 vsli.64 d26,d18,#23 540 vand d29,d18 [all...] |
/external/chromium_org/third_party/boringssl/linux-arm/crypto/sha/ |
H A D | sha512-armv4.S | 484 vbsl d30,d18,d17 @ Maj(a,b,c) 523 vadd.i64 d18,d27 526 vshr.u64 d24,d18,#14 @ 2 530 vshr.u64 d25,d18,#18 534 vshr.u64 d26,d18,#41 536 vsli.64 d24,d18,#50 537 vsli.64 d25,d18,#46 538 vmov d29,d18 539 vsli.64 d26,d18,#23 581 vbsl d29,d18,d1 [all...] |
/external/chromium_org/third_party/libvpx/source/libvpx/vp9/common/arm/neon/ |
H A D | vp9_convolve8_avg_neon.asm | 99 vswp d17, d18 137 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24 138 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26 139 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 140 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 215 vld1.u32 {d18[0]}, [r4], r1 216 vld1.u32 {d18[1]}, [r7], r1 222 vmovl.u8 q9, d18 246 MULTIPLY_BY_Q0 q1, d16, d17, d18, d19, d20, d21, d22, d24 251 MULTIPLY_BY_Q0 q2, d17, d18, d1 [all...] |
H A D | vp9_convolve8_neon.asm | 99 vswp d17, d18 129 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24 130 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26 131 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 132 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 204 vld1.u32 {d18[0]}, [r4], r1 205 vld1.u32 {d18[1]}, [r7], r1 211 vmovl.u8 q9, d18 230 MULTIPLY_BY_Q0 q1, d16, d17, d18, d19, d20, d21, d22, d24 235 MULTIPLY_BY_Q0 q2, d17, d18, d1 [all...] |