/external/llvm/test/MC/AArch64/ |
H A D | neon-scalar-compare.s | 9 cmeq d20, d21, d22 11 // CHECK: cmeq d20, d21, d22 // encoding: [0xb4,0x8e,0xf6,0x7e] 17 cmeq d20, d21, #0x0 19 // CHECK: cmeq d20, d21, #{{0x0|0}} // encoding: [0xb4,0x9a,0xe0,0x5e] 25 cmhs d20, d21, d22 27 // CHECK: cmhs d20, d21, d22 // encoding: [0xb4,0x3e,0xf6,0x7e] 33 cmge d20, d21, d22 35 // CHECK: cmge d20, d21, d22 // encoding: [0xb4,0x3e,0xf6,0x5e] 41 cmge d20, d21, #0x0 43 // CHECK: cmge d20, d2 [all...] |
H A D | neon-scalar-fp-compare.s | 11 fcmeq d20, d21, d22 15 // CHECK: fcmeq d20, d21, d22 // encoding: [0xb4,0xe6,0x76,0x5e] 23 fcmeq d20, d21, #0.0 26 fcmeq d20, d21, #0x0 30 // CHECK: fcmeq d20, d21, #0.0 // encoding: [0xb4,0xda,0xe0,0x5e] 33 // CHECK: fcmeq d20, d21, #0.0 // encoding: [0xb4,0xda,0xe0,0x5e] 41 fcmge d20, d21, d22 45 // CHECK: fcmge d20, d21, d22 // encoding: [0xb4,0xe6,0x76,0x7e] 53 fcmge d20, d21, #0.0 56 fcmge d20, d2 [all...] |
H A D | neon-scalar-reduce-pairwise.s | 16 faddp d20, v1.2d 20 // CHECK: faddp d20, v1.2d // encoding: [0x34,0xd8,0x70,0x7e]
|
H A D | neon-scalar-abs.s | 19 fabd d29, d24, d20 23 // CHECK: fabd d29, d24, d20 // encoding: [0x1d,0xd7,0xf4,0x7e]
|
H A D | neon-scalar-shift-imm.s | 29 urshr d20, d23, #31 31 // CHECK: urshr d20, d23, #31 // encoding: [0xf4,0x26,0x61,0x7f] 43 usra d20, d13, #61 45 // CHECK: usra d20, d13, #61 // encoding: [0xb4,0x15,0x43,0x7f]
|
/external/libhevc/common/arm/ |
H A D | ihevc_intra_pred_chroma_ver.s | 117 vld2.8 {d20,d21}, [r6]! @16 loads (col 0:15) 127 vst2.8 {d20,d21}, [r2]! 128 vst2.8 {d20,d21}, [r5]! 129 vst2.8 {d20,d21}, [r8]! 130 vst2.8 {d20,d21}, [r10]! 140 vst2.8 {d20,d21}, [r2]! 141 vst2.8 {d20,d21}, [r5]! 142 vst2.8 {d20,d21}, [r8]! 143 vst2.8 {d20,d21}, [r10]! 153 vst2.8 {d20,d2 [all...] |
H A D | ihevc_intra_pred_luma_vert.s | 118 vld1.8 {d20,d21}, [r6]! @16 loads (col 0:15) 126 vst1.8 {d20,d21}, [r2]! 127 vst1.8 {d20,d21}, [r5]! 128 vst1.8 {d20,d21}, [r8]! 129 vst1.8 {d20,d21}, [r10]! 139 vst1.8 {d20,d21}, [r2]! 140 vst1.8 {d20,d21}, [r5]! 141 vst1.8 {d20,d21}, [r8]! 142 vst1.8 {d20,d21}, [r10]! 151 vst1.8 {d20,d2 [all...] |
/external/llvm/test/MC/ARM/ |
H A D | neon-table-encoding.s | 5 vtbl.8 d16, {d16, d17, d18}, d20 6 vtbl.8 d16, {d16, d17, d18, d19}, d20 10 @ CHECK: vtbl.8 d16, {d16, d17, d18}, d20 @ encoding: [0xa4,0x0a,0xf0,0xf3] 11 @ CHECK: vtbl.8 d16, {d16, d17, d18, d19}, d20 @ encoding: [0xa4,0x0b,0xf0,0xf3] 16 vtbx.8 d20, {d16, d17, d18}, d21 17 vtbx.8 d20, {d16, d17, d18, d19}, d21 21 @ CHECK: vtbx.8 d20, {d16, d17, d18}, d21 @ encoding: [0xe5,0x4a,0xf0,0xf3] 22 @ CHECK: vtbx.8 d20, {d16, d17, d18, d19}, d21 @ encoding: [0xe5,0x4b,0xf0,0xf3]
|
H A D | neont2-table-encoding.s | 7 vtbl.8 d16, {d16, d17, d18}, d20 8 vtbl.8 d16, {d16, d17, d18, d19}, d20 12 @ CHECK: vtbl.8 d16, {d16, d17, d18}, d20 @ encoding: [0xf0,0xff,0xa4,0x0a] 13 @ CHECK: vtbl.8 d16, {d16, d17, d18, d19}, d20 @ encoding: [0xf0,0xff,0xa4,0x0b] 18 vtbx.8 d20, {d16, d17, d18}, d21 19 vtbx.8 d20, {d16, d17, d18, d19}, d21 23 @ CHECK: vtbx.8 d20, {d16, d17, d18}, d21 @ encoding: [0xf0,0xff,0xe5,0x4a] 24 @ CHECK: vtbx.8 d20, {d16, d17, d18, d19}, d21 @ encoding: [0xf0,0xff,0xe5,0x4b]
|
H A D | pr22395-2.s | 10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
H A D | neont2-vld-encoding.s | 41 @ CHECK: vld3.8 {d16, d18, d20}, [r0:64]! @ encoding: [0x60,0xf9,0x1d,0x05] 42 vld3.8 {d16, d18, d20}, [r0:64]! 45 @ CHECK: vld3.16 {d16, d18, d20}, [r0]! @ encoding: [0x60,0xf9,0x4d,0x05] 46 vld3.16 {d16, d18, d20}, [r0]! 49 @ CHECK: vld3.32 {d16, d18, d20}, [r0]! @ encoding: [0x60,0xf9,0x8d,0x05] 50 vld3.32 {d16, d18, d20}, [r0]! 60 @ CHECK: vld4.8 {d16, d18, d20, d22}, [r0:256]! @ encoding: [0x60,0xf9,0x3d,0x01] 61 vld4.8 {d16, d18, d20, d22}, [r0:256]! 64 @ CHECK: vld4.16 {d16, d18, d20, d22}, [r0]! @ encoding: [0x60,0xf9,0x4d,0x01] 65 vld4.16 {d16, d18, d20, d2 [all...] |
H A D | neont2-vst-encoding.s | 41 @ CHECK: vst3.8 {d16, d18, d20}, [r0:64]! @ encoding: [0x40,0xf9,0x1d,0x05] 42 vst3.8 {d16, d18, d20}, [r0:64]! 45 @ CHECK: vst3.16 {d16, d18, d20}, [r0]! @ encoding: [0x40,0xf9,0x4d,0x05] 46 vst3.16 {d16, d18, d20}, [r0]! 49 @ CHECK: vst3.32 {d16, d18, d20}, [r0]! @ encoding: [0x40,0xf9,0x8d,0x05] 50 vst3.32 {d16, d18, d20}, [r0]! 58 @ CHECK: vst4.8 {d16, d18, d20, d22}, [r0:256]! @ encoding: [0x40,0xf9,0x3d,0x01] 59 vst4.8 {d16, d18, d20, d22}, [r0:256]! 62 @ CHECK: vst4.16 {d16, d18, d20, d22}, [r0]! @ encoding: [0x40,0xf9,0x4d,0x01] 63 vst4.16 {d16, d18, d20, d2 [all...] |
H A D | neon-vld-encoding.s | 121 vld2.8 {d19, d20}, [r0:64]! 128 vld2.8 {d19, d20}, [r0:64], r6 142 @ CHECK: vld2.8 {d19, d20}, [r0:64]! @ encoding: [0x1d,0x38,0x60,0xf4] 144 @ CHECK: vld2.32 {d20, d21}, [r0]! @ encoding: [0x8d,0x48,0x60,0xf4] 149 @ CHECK: vld2.8 {d19, d20}, [r0:64], r6 @ encoding: [0x16,0x38,0x60,0xf4] 151 @ CHECK: vld2.32 {d20, d21}, [r0], r6 @ encoding: [0x86,0x48,0x60,0xf4] 160 vld3.8 {d16, d18, d20}, [r0:64] 169 vld3.i32 {d16, d18, d20}, [r10], r5 174 vld3.8 {d16, d18, d20}, [r0:64]! 175 vld3.p16 {d20, d2 [all...] |
H A D | neon-vst-encoding.s | 57 @ CHECK: vst2.16 {d18, d19, d20, d21}, [r0:128]! @ encoding: [0x6d,0x23,0x40,0xf4] 64 vst3.8 {d16, d18, d20}, [r0:64] 73 vst3.i32 {d16, d18, d20}, [r10], r5 78 vst3.8 {d16, d18, d20}, [r0:64]! 79 vst3.p16 {d20, d22, d24}, [r5]! 85 @ CHECK: vst3.8 {d16, d18, d20}, [r0:64] @ encoding: [0x1f,0x05,0x40,0xf4] 93 @ CHECK: vst3.32 {d16, d18, d20}, [r10], r5 @ encoding: [0x85,0x05,0x4a,0xf4] 97 @ CHECK: vst3.8 {d16, d18, d20}, [r0:64]! @ encoding: [0x1d,0x05,0x40,0xf4] 98 @ CHECK: vst3.16 {d20, d22, d24}, [r5]! @ encoding: [0x4d,0x45,0x45,0xf4] 107 vst4.32 {d16, d18, d20, d2 [all...] |
/external/libmpeg2/common/arm/ |
H A D | icv_variance_a9.s | 94 vaddl.u16 q10, d20, d21 102 vadd.u32 d20, d20, d21 103 vpadd.u32 d20, d20, d20 109 vmov.u32 r1, d20[0]
|
H A D | ideint_spatial_filter_a9.s | 129 vpadd.u16 d20, d20, d21 133 vpaddl.u16 d20, d20 142 vmul.u32 d20, d20, d31 151 vmov.u32 r7, d20[0] 177 vmov.u32 r7, d20[1]
|
H A D | ideint_cac_a9.s | 141 vadd.u16 d20, d20, d21 143 @ d20 has four adj values for two sub-blocks 175 vadd.u16 d20, d0, d20 177 vpaddl.u16 d20, d20 178 @ d20 now contains 2 adj values 207 vclt.u32 d0, d21, d20
|
/external/v8/test/mjsunit/regress/ |
H A D | regress-4800.js | 32 var d20 = x + 20.5; 62 result[20] = d20;
|
/external/libvpx/libvpx/vpx_dsp/arm/ |
H A D | loopfilter_8_neon.asm | 197 vabd.u8 d20, d4, d5 ; m2 = abs(p2 - p1) 204 vmax.u8 d19, d19, d20 ; m1 = max(m1, m2) 205 vmax.u8 d20, d21, d22 ; m2 = max(m3, m4) 213 vmax.u8 d19, d19, d20 237 vmax.u8 d20, d20, d25 ; m2 = max(m2, m4) 244 vcge.u8 d20, d23, d20 ; flat 250 vand d20, d20, d1 [all...] |
H A D | vpx_convolve8_avg_neon_asm.asm | 131 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24 132 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26 133 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 162 vmov d20, d23 207 vld1.u32 {d20[0]}, [r4], r1 208 vld1.u32 {d20[1]}, [r7], r1 213 vmovl.u8 q10, d20 236 MULTIPLY_BY_Q0 q1, d16, d17, d18, d19, d20, d21, d22, d24 241 MULTIPLY_BY_Q0 q2, d17, d18, d19, d20, d21, d22, d24, d26 246 MULTIPLY_BY_Q0 q14, d18, d19, d20, d2 [all...] |
H A D | vpx_convolve8_neon_asm.asm | 123 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24 124 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26 125 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 151 vmov d20, d23 196 vld1.u32 {d20[0]}, [r4], r1 197 vld1.u32 {d20[1]}, [r7], r1 202 vmovl.u8 q10, d20 220 MULTIPLY_BY_Q0 q1, d16, d17, d18, d19, d20, d21, d22, d24 225 MULTIPLY_BY_Q0 q2, d17, d18, d19, d20, d21, d22, d24, d26 230 MULTIPLY_BY_Q0 q14, d18, d19, d20, d2 [all...] |
H A D | loopfilter_mb_neon.asm | 84 vst1.u8 {d20}, [r8@64], r1 ; store op0 102 vst1.u8 {d20}, [r8@64], r1 ; store oq0 209 vst3.8 {d18[0], d19[0], d20[0]}, [r8], r1 211 vst3.8 {d18[1], d19[1], d20[1]}, [r8], r1 213 vst3.8 {d18[2], d19[2], d20[2]}, [r8], r1 215 vst3.8 {d18[3], d19[3], d20[3]}, [r8], r1 217 vst3.8 {d18[4], d19[4], d20[4]}, [r8], r1 219 vst3.8 {d18[5], d19[5], d20[5]}, [r8], r1 221 vst3.8 {d18[6], d19[6], d20[6]}, [r8], r1 223 vst3.8 {d18[7], d19[7], d20[ [all...] |
/external/libavc/encoder/arm/ |
H A D | ih264e_half_pel.s | 170 vqrshrun.s16 d20, q4, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column1,row0) 177 vst1.8 {d20, d21, d22}, [r1], r3 @//Store dest row0 307 vext.16 d30, d20, d21, #2 @//extract a[2] (set1) 310 vext.16 d29, d20, d21, #3 @//extract a[3] (set1) 319 vext.16 d28, d20, d21, #1 @//extract a[1] (set1) 321 vaddl.s16 q13, d31, d20 @// a0 + a5 (set1) 357 vshrn.s32 d20, q13, #8 @// shift by 8 and later we will shift by 2 more with rounding (set1) 411 vext.16 d30, d20, d21, #2 @//extract a[2] (set1) 414 vext.16 d29, d20, d21, #3 @//extract a[3] (set1) 424 vext.16 d28, d20, d2 [all...] |
/external/libpng/arm/ |
H A D | filter_neon.S | 152 vhadd.u8 d0, d3, d20 153 vext.8 d17, d20, d21, #3 157 vext.8 d18, d20, d21, #6 195 vmov.i8 d20, #0 199 paeth d0, d3, d16, d20 206 vmov d20, d19 226 paeth d0, d3, d20, d4 229 vext.8 d17, d20, d21, #3 230 paeth d1, d0, d17, d20 234 vext.8 d18, d20, d2 [all...] |
/external/opencv3/3rdparty/libpng/arm/ |
H A D | filter_neon.S | 127 vhadd.u8 d0, d3, d20 128 vext.8 d17, d20, d21, #3 132 vext.8 d18, d20, d21, #6 170 vmov.i8 d20, #0 174 paeth d0, d3, d16, d20 181 vmov d20, d19 201 paeth d0, d3, d20, d4 204 vext.8 d17, d20, d21, #3 205 paeth d1, d0, d17, d20 209 vext.8 d18, d20, d2 [all...] |