/external/llvm/test/MC/AArch64/ |
H A D | neon-scalar-compare.s | 9 cmeq d20, d21, d22 11 // CHECK: cmeq d20, d21, d22 // encoding: [0xb4,0x8e,0xf6,0x7e] 25 cmhs d20, d21, d22 27 // CHECK: cmhs d20, d21, d22 // encoding: [0xb4,0x3e,0xf6,0x7e] 33 cmge d20, d21, d22 35 // CHECK: cmge d20, d21, d22 // encoding: [0xb4,0x3e,0xf6,0x5e] 49 cmhi d20, d21, d22 51 // CHECK: cmhi d20, d21, d22 // encoding: [0xb4,0x36,0xf6,0x7e] 56 cmgt d20, d21, d22 58 // CHECK: cmgt d20, d21, d22 // encodin [all...] |
H A D | neon-scalar-recip.s | 10 frecps d22, d30, d21 13 // CHECK: frecps d22, d30, d21 // encoding: [0xd6,0xff,0x75,0x5e] 20 frsqrts d8, d22, d18 23 // CHECK: frsqrts d8, d22, d18 // encoding: [0xc8,0xfe,0xf2,0x5e]
|
H A D | neon-scalar-fp-compare.s | 10 fcmeq d20, d21, d22 13 // CHECK: fcmeq d20, d21, d22 // encoding: [0xb4,0xe6,0x76,0x5e] 34 fcmge d20, d21, d22 37 // CHECK: fcmge d20, d21, d22 // encoding: [0xb4,0xe6,0x76,0x7e] 58 fcmgt d20, d21, d22 61 // CHECK: fcmgt d20, d21, d22 // encoding: [0xb4,0xe6,0xf6,0x7e] 110 facge d20, d21, d22 113 // CHECK: facge d20, d21, d22 // encoding: [0xb4,0xee,0x76,0x7e] 120 facgt d20, d21, d22 123 // CHECK: facgt d20, d21, d22 // encodin [all...] |
H A D | neon-scalar-saturating-add-sub.s | 62 suqadd d18, d22 67 // CHECK: suqadd d18, d22 // encoding: [0xd2,0x3a,0xe0,0x5e] 76 usqadd d18, d22 81 // CHECK: usqadd d18, d22 // encoding: [0xd2,0x3a,0xe0,0x7e]
|
H A D | arm64-elf-relocs.s | 208 ldr d22, [x21, :got_lo12:sym] 210 // CHECK: ldr d22, [x21, :got_lo12:sym] 215 ldr d22, [x21, #:dtprel_lo12:sym] 217 // CHECK: ldr d22, [x21, :dtprel_lo12:sym] 222 ldr d22, [x21, :tprel_lo12_nc:sym] 224 // CHECK: ldr d22, [x21, :tprel_lo12_nc:sym] 229 ldr d22, [x21, #:gottprel_lo12:sym] 231 // CHECK: ldr d22, [x21, :gottprel_lo12:sym] 236 ldr d22, [x21, :tlsdesc_lo12:sym] 238 // CHECK: ldr d22, [x2 [all...] |
/external/libhevc/common/arm/ |
H A D | ihevc_intra_pred_chroma_ver.s | 121 vld2.8 {d22,d23}, [r6] @16 loads (col 16:31) 132 vst2.8 {d22,d23}, [r2], r11 133 vst2.8 {d22,d23}, [r5], r11 134 vst2.8 {d22,d23}, [r8], r11 135 vst2.8 {d22,d23}, [r10], r11 145 vst2.8 {d22,d23}, [r2], r11 146 vst2.8 {d22,d23}, [r5], r11 147 vst2.8 {d22,d23}, [r8], r11 148 vst2.8 {d22,d23}, [r10], r11 158 vst2.8 {d22,d2 [all...] |
H A D | ihevc_intra_pred_luma_vert.s | 122 vld1.8 {d22,d23}, [r6] @16 loads (col 16:31) 131 vst1.8 {d22,d23}, [r2], r11 132 vst1.8 {d22,d23}, [r5], r11 133 vst1.8 {d22,d23}, [r8], r11 134 vst1.8 {d22,d23}, [r10], r11 144 vst1.8 {d22,d23}, [r2], r11 145 vst1.8 {d22,d23}, [r5], r11 146 vst1.8 {d22,d23}, [r8], r11 147 vst1.8 {d22,d23}, [r10], r11 156 vst1.8 {d22,d2 [all...] |
H A D | ihevc_intra_pred_luma_horz.s | 211 vqmovun.s16 d22,q11 213 vst1.8 {d22},[r2]! 225 vqmovun.s16 d22,q11 227 vst1.8 {d22},[r2],r3 289 vqmovun.s16 d22,q11 291 vst1.8 {d22},[r2],r3 328 vqmovun.s16 d22,q11 330 vst1.32 {d22[0]},[r2],r3
|
H A D | ihevc_inter_pred_filters_luma_vert_w16inp.s | 123 vdup.16 d22,d0[0] @coeffabs_0 = vdup_lane_u8(coeffabs, 0)@ 150 vmlal.s16 q4,d0,d22 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_0)@ 166 vmlal.s16 q5,d1,d22 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_0)@ 182 vmlal.s16 q6,d2,d22 195 vmlal.s16 q7,d3,d22 222 vmlal.s16 q4,d0,d22 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_0)@ 237 vmlal.s16 q5,d1,d22 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_0)@ 255 vmlal.s16 q6,d2,d22 280 vmlal.s16 q7,d3,d22 306 vmlal.s16 q4,d0,d22 [all...] |
H A D | ihevc_inter_pred_luma_vert_w16inp_w16out.s | 131 vdup.16 d22,d0[0] @coeffabs_0 = vdup_lane_u8(coeffabs, 0)@ 160 vmlal.s16 q4,d0,d22 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_0)@ 176 vmlal.s16 q5,d1,d22 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_0)@ 192 vmlal.s16 q6,d2,d22 206 vmlal.s16 q7,d3,d22 235 vmlal.s16 q4,d0,d22 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_0)@ 251 vmlal.s16 q5,d1,d22 @mul_res2 = vmlal_u8(mul_res2, src_tmp2, coeffabs_0)@ 270 vmlal.s16 q6,d2,d22 296 vmlal.s16 q7,d3,d22 323 vmlal.s16 q4,d0,d22 [all...] |
/external/llvm/test/MC/ARM/ |
H A D | pr22395-2.s | 10 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 15 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 20 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 25 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 30 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31} 35 @ CHECK: vldmia r0, {d16, d17, d18, d19, d20, d21, d22, d23, d24, d25, d26, d27, d28, d29, d30, d31}
|
H A D | neon-mov-vfp.s | 16 @ NEON-DAG: vmov.8 d22[5], r2 @ encoding: 18 vmov.8 d22[5], r2 28 @ NEON-DAG: vmov.s8 r2, d22[5] @ encoding: 30 vmov.s8 r2, d22[5]
|
H A D | d16.s | 19 @ D16-NEXT: vcvt.f64.f32 d22, s4 20 vcvt.f64.f32 d22, s4
|
H A D | neon-vld-encoding.s | 175 vld3.p16 {d20, d22, d24}, [r5]! 195 @ CHECK: vld3.16 {d20, d22, d24}, [r5]! @ encoding: [0x4d,0x45,0x65,0xf4] 204 vld4.32 {d16, d18, d20, d22}, [r8] 211 vld4.u32 {d16, d18, d20, d22}, [r8]! 216 vld4.i8 {d16, d18, d20, d22}, [r4:256], r2 217 vld4.i16 {d16, d18, d20, d22}, [r6], r3 225 @ CHECK: vld4.32 {d16, d18, d20, d22}, [r8] @ encoding: [0x8f,0x01,0x68,0xf4] 231 @ CHECK: vld4.32 {d16, d18, d20, d22}, [r8]! @ encoding: [0x8d,0x01,0x68,0xf4] 235 @ CHECK: vld4.8 {d16, d18, d20, d22}, [r4:256], r2 @ encoding: [0x32,0x01,0x64,0xf4] 236 @ CHECK: vld4.16 {d16, d18, d20, d22}, [r [all...] |
H A D | neont2-vld-encoding.s | 60 @ CHECK: vld4.8 {d16, d18, d20, d22}, [r0:256]! @ encoding: [0x60,0xf9,0x3d,0x01] 61 vld4.8 {d16, d18, d20, d22}, [r0:256]! 64 @ CHECK: vld4.16 {d16, d18, d20, d22}, [r0]! @ encoding: [0x60,0xf9,0x4d,0x01] 65 vld4.16 {d16, d18, d20, d22}, [r0]! 68 @ CHECK: vld4.32 {d16, d18, d20, d22}, [r0]! @ encoding: [0x60,0xf9,0x8d,0x01] 69 vld4.32 {d16, d18, d20, d22}, [r0]! 108 @ CHECK: vld4.16 {d16[1], d18[1], d20[1], d22[1]}, [r0:64] @ encoding: [0xe0,0xf9,0x7f,0x07] 109 vld4.16 {d16[1], d18[1], d20[1], d22[1]}, [r0:64]
|
H A D | neon-vst-encoding.s | 79 vst3.p16 {d20, d22, d24}, [r5]! 98 @ CHECK: vst3.16 {d20, d22, d24}, [r5]! @ encoding: [0x4d,0x45,0x45,0xf4] 107 vst4.32 {d16, d18, d20, d22}, [r8] 114 vst4.u32 {d16, d18, d20, d22}, [r8]! 119 vst4.i8 {d16, d18, d20, d22}, [r4:256], r2 120 vst4.i16 {d16, d18, d20, d22}, [r6], r3 128 @ CHECK: vst4.32 {d16, d18, d20, d22}, [r8] @ encoding: [0x8f,0x01,0x48,0xf4] 134 @ CHECK: vst4.32 {d16, d18, d20, d22}, [r8]! @ encoding: [0x8d,0x01,0x48,0xf4] 138 @ CHECK: vst4.8 {d16, d18, d20, d22}, [r4:256], r2 @ encoding: [0x32,0x01,0x44,0xf4] 139 @ CHECK: vst4.16 {d16, d18, d20, d22}, [r [all...] |
/external/libavc/encoder/arm/ |
H A D | ih264e_half_pel.s | 172 vqrshrun.s16 d22, q6, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column3,row0) 177 vst1.8 {d20, d21, d22}, [r1], r3 @//Store dest row0 317 vext.16 d31, d21, d22, #1 @//extract a[5] (set1) 322 vext.16 d31, d22, d23, #1 @//extract a[5] (set2) 327 vext.16 d30, d21, d22, #2 @//extract a[2] (set2) 330 vext.16 d29, d21, d22, #3 @//extract a[3] (set2) 332 vext.16 d28, d21, d22, #1 @//extract a[1] (set2) 337 vmlsl.s16 q10, d22, d0[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (set2) 344 vext.16 d30, d22, d23, #2 @//extract a[2] (set3) 345 vext.16 d29, d22, d2 [all...] |
/external/libvpx/libvpx/vp9/common/arm/neon/ |
H A D | vp9_mb_lpf_neon.asm | 86 vst1.u8 {d22}, [r8@64], r1 ; store oq1 104 vst1.u8 {d22}, [r8@64], r1 ; store oq2 210 vst3.8 {d21[0], d22[0], d23[0]}, [r0], r1 212 vst3.8 {d21[1], d22[1], d23[1]}, [r0], r1 214 vst3.8 {d21[2], d22[2], d23[2]}, [r0], r1 216 vst3.8 {d21[3], d22[3], d23[3]}, [r0], r1 218 vst3.8 {d21[4], d22[4], d23[4]}, [r0], r1 220 vst3.8 {d21[5], d22[5], d23[5]}, [r0], r1 222 vst3.8 {d21[6], d22[6], d23[6]}, [r0], r1 224 vst3.8 {d21[7], d22[ [all...] |
H A D | vp9_convolve8_avg_neon.asm | 137 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24 138 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26 139 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 140 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 219 vld1.u32 {d22[0]}, [r4], r1 224 vmovl.u8 q11, d22 246 MULTIPLY_BY_Q0 q1, d16, d17, d18, d19, d20, d21, d22, d24 251 MULTIPLY_BY_Q0 q2, d17, d18, d19, d20, d21, d22, d24, d26 256 MULTIPLY_BY_Q0 q14, d18, d19, d20, d21, d22, d24, d26, d27 261 MULTIPLY_BY_Q0 q15, d19, d20, d21, d22, d2 [all...] |
H A D | vp9_convolve8_neon.asm | 129 MULTIPLY_BY_Q0 q1, d16, d17, d20, d22, d18, d19, d23, d24 130 MULTIPLY_BY_Q0 q2, d17, d20, d22, d18, d19, d23, d24, d26 131 MULTIPLY_BY_Q0 q14, d20, d22, d18, d19, d23, d24, d26, d27 132 MULTIPLY_BY_Q0 q15, d22, d18, d19, d23, d24, d26, d27, d25 208 vld1.u32 {d22[0]}, [r4], r1 213 vmovl.u8 q11, d22 230 MULTIPLY_BY_Q0 q1, d16, d17, d18, d19, d20, d21, d22, d24 235 MULTIPLY_BY_Q0 q2, d17, d18, d19, d20, d21, d22, d24, d26 240 MULTIPLY_BY_Q0 q14, d18, d19, d20, d21, d22, d24, d26, d27 245 MULTIPLY_BY_Q0 q15, d19, d20, d21, d22, d2 [all...] |
/external/libavc/common/arm/ |
H A D | ih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s | 166 vmlal.s16 q1, d22, d0[0] @// a0 + a5 + 20a2 (column1) 170 vmlsl.s16 q1, d22, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (column1) 176 vmlsl.s16 q1, d22, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 (column1) 178 vqrshrun.s32 d22, q1, #10 180 vqmovun.s16 d22, q11 181 vst1.u8 {d22}, [r1], r10 @//Store dest row0, column 1; (1/2,1/2) 185 vmlal.s16 q1, d22, d0[0] @// a0 + a5 + 20a2 (column2) 192 vmlsl.s16 q1, d22, d1[0] @// a0 + a5 + 20a2 + 20a3 - 5a1 (column2) 199 vqmovun.s16 d22, q10 200 vst1.u8 {d22}, [r [all...] |
H A D | ih264_inter_pred_luma_horz_hpel_vert_qpel_a9q.s | 253 vmlal.s16 q9, d30, d22 255 vmlal.s16 q3, d31, d22 286 vmlal.s16 q9, d30, d22 291 vmlal.s16 q3, d31, d22 325 vmlal.s16 q9, d30, d22 327 vmlal.s16 q3, d31, d22 349 vmlal.s16 q9, d30, d22 351 vmlal.s16 q3, d31, d22 483 vmlal.s16 q9, d30, d22 485 vmlal.s16 q3, d31, d22 [all...] |
/external/libpng/arm/ |
H A D | filter_neon.S | 82 vext.8 d5, d22, d23, #3 83 vadd.u8 d0, d3, d22 84 vext.8 d6, d22, d23, #6 144 vext.8 d5, d22, d23, #3 147 vadd.u8 d0, d0, d22 148 vext.8 d6, d22, d23, #6 220 vext.8 d5, d22, d23, #3 221 vadd.u8 d0, d0, d22 225 vext.8 d6, d22, d23, #6
|
/external/libvpx/libvpx/vp8/encoder/arm/neon/ |
H A D | vp8_mse16x16_neon.asm | 50 vmlal.s16 q7, d22, d22 104 vmull.s16 q7, d22, d22
|
/external/boringssl/linux-arm/crypto/modes/ |
H A D | ghash-armv4.S | 394 vext.8 d22, d6, d6, #2 @ B2 395 vmull.p8 q11, d26, d22 @ G = A*B2 404 vext.8 d22, d6, d6, #4 @ B4 407 vmull.p8 q11, d26, d22 @ K = A*B4 414 veor d22, d22, d23 @ t3 = (K) (P6 + P7) << 32 432 vext.8 d22, d6, d6, #2 @ B2 433 vmull.p8 q11, d28, d22 @ G = A*B2 442 vext.8 d22, d6, d6, #4 @ B4 445 vmull.p8 q11, d28, d22 [all...] |