/external/libhevc/common/arm/ |
H A D | ihevc_itrans_recon_32x32.s | 211 vmull.s16 q12,d8,d0[1] @// y1 * cos1(part of b0) 212 vmull.s16 q13,d8,d0[3] @// y1 * cos3(part of b1) 213 vmull.s16 q14,d8,d1[1] @// y1 * sin3(part of b2) 214 vmull.s16 q15,d8,d1[3] @// y1 * sin1(part of b3) 216 vmlal.s16 q12,d9,d0[3] @// y1 * cos1 + y3 * cos3(part of b0) 217 vmlal.s16 q13,d9,d2[1] @// y1 * cos3 - y3 * sin1(part of b1) 218 vmlal.s16 q14,d9,d3[3] @// y1 * sin3 - y3 * cos1(part of b2) 219 vmlal.s16 q15,d9,d5[1] @// y1 * sin1 - y3 * sin3(part of b3) 225 vmull.s16 q10,d10,d0[0] 226 vmlal.s16 q1 [all...] |
H A D | ihevc_itrans_recon_16x16.s | 242 vmull.s16 q12,d6,d0[1] @// y1 * cos1(part of b0) 243 vmull.s16 q13,d6,d0[3] @// y1 * cos3(part of b1) 244 vmull.s16 q14,d6,d1[1] @// y1 * sin3(part of b2) 245 vmull.s16 q15,d6,d1[3] @// y1 * sin1(part of b3) 247 vmlal.s16 q12,d7,d0[3] @// y1 * cos1 + y3 * cos3(part of b0) 248 vmlal.s16 q13,d7,d2[1] @// y1 * cos3 - y3 * sin1(part of b1) 249 vmlal.s16 q14,d7,d3[3] @// y1 * sin3 - y3 * cos1(part of b2) 250 vmlsl.s16 q15,d7,d2[3] @// y1 * sin1 - y3 * sin3(part of b3) 257 vmull.s16 q6,d10,d0[0] 258 vmlal.s16 q [all...] |
H A D | ihevc_itrans_recon_8x8.s | 187 vmull.s16 q10,d2,d0[0] @// y0 * cos4(part of c0 and c1) 189 vmull.s16 q9,d3,d1[2] @// y2 * sin2 (q3 is freed by this time)(part of d1) 192 vmull.s16 q12,d6,d0[1] @// y1 * cos1(part of b0) 194 vmull.s16 q13,d6,d0[3] @// y1 * cos3(part of b1) 196 vmull.s16 q14,d6,d1[1] @// y1 * sin3(part of b2) 198 vmull.s16 q15,d6,d1[3] @// y1 * sin1(part of b3) 200 vmlal.s16 q12,d7,d0[3] @// y1 * cos1 + y3 * cos3(part of b0) 202 vmlsl.s16 q13,d7,d1[3] @// y1 * cos3 - y3 * sin1(part of b1) 204 vmlsl.s16 q14,d7,d0[1] @// y1 * sin3 - y3 * cos1(part of b2) 206 vmlsl.s16 q1 [all...] |
H A D | ihevc_inter_pred_chroma_vert_w16inp.s | 139 vmull.s16 q0,d0,d12 @vmull_s16(src_tmp1, coeff_0) 142 vmull.s16 q4,d2,d12 @vmull_s16(src_tmp2, coeff_0) 144 vmlal.s16 q0,d2,d13 146 vmlal.s16 q4,d3,d13 149 vmlal.s16 q0,d3,d14 150 vmlal.s16 q4,d6,d14 151 vmlal.s16 q0,d6,d15 152 vmlal.s16 q4,d2,d15 155 vqrshrun.s16 d0,q0,#6 @rounding shift 156 vqrshrun.s16 d3 [all...] |
H A D | ihevc_weighted_pred_bi_default.s | 136 vadd.s16 q0,q0,q2 181 vld1.s16 {d6},[r0]! @load and increment the pi2_src1 183 vld1.s16 {d7},[r1]! @load and increment the pi2_src2 184 vld1.s16 {d8},[r11],r3 @load and increment the pi2_src1 ii iteration 185 vqadd.s16 d18,d6,d7 186 vqadd.s16 d18,d18,d0 @vaddq_s32(i4_tmp1_t1, tmp_lvl_shift_t) 187 vld1.s16 {d9},[r12],r4 @load and increment the pi2_src2 ii iteration 188 vqadd.s16 d20,d8,d9 @vaddq_s32(i4_tmp2_t1, i4_tmp2_t2) 189 vqadd.s16 d19,d20,d0 @vaddq_s32(i4_tmp2_t1, tmp_lvl_shift_t) 190 vqshrun.s16 d2 [all...] |
H A D | ihevc_inter_pred_filters_luma_vert_w16inp.s | 148 vmull.s16 q4,d1,d23 @mul_res1 = vmull_u8(src_tmp2, coeffabs_1)@ 150 vmlal.s16 q4,d0,d22 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_0)@ 152 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@ 154 vmlal.s16 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@ 156 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@ 158 vmlal.s16 q4,d5,d27 @mul_res1 = vmlal_u8(mul_res1, src_tmp2, coeffabs_5)@ 159 vmlal.s16 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@ 160 vmlal.s16 q4,d7,d29 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_7)@ 164 vmull.s16 q5,d2,d23 @mul_res2 = vmull_u8(src_tmp3, coeffabs_1)@ 166 vmlal.s16 q [all...] |
H A D | ihevc_inter_pred_luma_vert_w16inp_w16out.s | 158 vmull.s16 q4,d1,d23 @mul_res1 = vmull_u8(src_tmp2, coeffabs_1)@ 160 vmlal.s16 q4,d0,d22 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_0)@ 162 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@ 164 vmlal.s16 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@ 166 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@ 168 vmlal.s16 q4,d5,d27 @mul_res1 = vmlal_u8(mul_res1, src_tmp2, coeffabs_5)@ 169 vmlal.s16 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@ 170 vmlal.s16 q4,d7,d29 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_7)@ 174 vmull.s16 q5,d2,d23 @mul_res2 = vmull_u8(src_tmp3, coeffabs_1)@ 176 vmlal.s16 q [all...] |
H A D | ihevc_itrans_recon_4x4_ttype1.s | 143 vmull.s16 q3,d1,d4[2] @74 * pi2_src[1] 144 vmlal.s16 q3,d0,d4[0] @74 * pi2_src[1] + 29 * pi2_src[0] 145 vmlal.s16 q3,d3,d4[1] @74 * pi2_src[1] + 29 * pi2_src[0] + 55 * pi2_src[3] 146 vmlal.s16 q3,d2,d4[3] @pi2_out[0] = 29* pi2_src[0] + 74 * pi2_src[1] + 84* pi2_src[2] + 55 * pi2_src[3] 148 vmull.s16 q4,d1,d4[2] @74 * pi2_src[1] 149 vmlal.s16 q4,d0,d4[1] @74 * pi2_src[1] + 55 * pi2_src[0] 150 vmlsl.s16 q4,d2,d4[0] @74 * pi2_src[1] + 55 * pi2_src[0] - 29 * pi2_src[2] 151 vmlsl.s16 q4,d3,d4[3] @pi2_out[1] = 74 * pi2_src[1] + 55 * pi2_src[0] - 29 * pi2_src[2] - 84 * pi2_src[3]) 153 vmull.s16 q5,d0,d4[2] @ 74 * pi2_src[0] 154 vmlsl.s16 q [all...] |
H A D | ihevc_inter_pred_chroma_vert_w16inp_w16out.s | 139 vmull.s16 q0,d0,d12 @vmull_s16(src_tmp1, coeff_0) 142 vmull.s16 q4,d2,d12 @vmull_s16(src_tmp2, coeff_0) 144 vmlal.s16 q0,d2,d13 146 vmlal.s16 q4,d3,d13 149 vmlal.s16 q0,d3,d14 150 vmlal.s16 q4,d6,d14 151 vmlal.s16 q0,d6,d15 152 vmlal.s16 q4,d2,d15 186 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0) 188 vmlal.s16 q1 [all...] |
/external/libavc/encoder/arm/ |
H A D | ih264e_half_pel.s | 170 vqrshrun.s16 d20, q4, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column1,row0) 171 vqrshrun.s16 d21, q5, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column2,row0) 172 vqrshrun.s16 d22, q6, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column3,row0) 173 vqrshrun.s16 d23, q7, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column1,row1) 174 vqrshrun.s16 d24, q8, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column2,row1) 175 vqrshrun.s16 d25, q9, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column3,row1) 316 vqrshrun.s16 d2, q10, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column1,row0) 318 vqrshrun.s16 d3, q11, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column2,row0) 321 vaddl.s16 q13, d31, d20 @// a0 + a5 (set1) 323 vmlal.s16 q1 [all...] |
/external/lldb/test/lang/cpp/char1632_t/ |
H A D | main.cpp | 15 char16_t *s16 = (char16_t *)u"ﺸﺵۻ"; local 19 s16 = (char16_t *)u"色ハ匂ヘト散リヌルヲ";
|
/external/lldb/test/lang/cpp/rdar12991846/ |
H A D | main.cpp | 15 char16_t *s16 = (char16_t *)u"ﺸﺵۻ"; local 19 s16 = (char16_t *)u"色ハ匂ヘト散リヌルヲ";
|
/external/libvpx/libvpx/vpx_dsp/arm/ |
H A D | idct16x16_add_neon.asm | 53 vld2.s16 {q8,q9}, [r0]! 54 vld2.s16 {q9,q10}, [r0]! 55 vld2.s16 {q10,q11}, [r0]! 56 vld2.s16 {q11,q12}, [r0]! 57 vld2.s16 {q12,q13}, [r0]! 58 vld2.s16 {q13,q14}, [r0]! 59 vld2.s16 {q14,q15}, [r0]! 60 vld2.s16 {q1,q2}, [r0]! 61 vmov.s16 q15, q1 88 vmull.s16 q [all...] |
H A D | intrapred_neon_asm.asm | 315 vadd.s16 q1, q1, q3 316 vadd.s16 q2, q2, q3 317 vqmovun.s16 d0, q1 318 vqmovun.s16 d1, q2 327 vadd.s16 q1, q1, q3 328 vadd.s16 q2, q2, q3 329 vqmovun.s16 d0, q1 330 vqmovun.s16 d1, q2 364 vadd.s16 q0, q3, q0 365 vadd.s16 q [all...] |
H A D | idct32x32_add_neon.asm | 65 vld1.s16 {q14}, [r0] 67 vld1.s16 {q13}, [r0] 81 vld1.s16 {$reg1}, [r1] 83 vld1.s16 {$reg2}, [r1] 107 vld1.s16 {d8}, [r10], r2 108 vld1.s16 {d11}, [r9], r11 109 vld1.s16 {d9}, [r10] 110 vld1.s16 {d10}, [r9] 112 vrshr.s16 q7, q7, #6 113 vrshr.s16 q [all...] |
/external/libavc/common/arm/ |
H A D | ih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s | 124 vmov.s16 d0, #20 @ Filter coeff 20 125 vmov.s16 d1, #5 @ Filter coeff 5 149 vmls.s16 q12, q11, d1[0] @ temp -= temp2 * 5 154 vmls.s16 q13, q10, d1[0] @ temp -= temp2 * 5 158 vmls.s16 q14, q10, d1[0] @ temp -= temp2 * 5 164 vaddl.s16 q1, d20, d24 @// a0 + a5 (column1) 165 vaddl.s16 q15, d21, d25 @// a0 + a5 (column1) 166 vmlal.s16 q1, d22, d0[0] @// a0 + a5 + 20a2 (column1) 167 vmlal.s16 q15, d23, d0[0] @// a0 + a5 + 20a2 (column1) 170 vmlsl.s16 q [all...] |
H A D | ih264_inter_pred_luma_bilinear_a9q.s | 150 vqrshrun.s16 d28, q10, #1 151 vqrshrun.s16 d29, q11, #1 153 vqrshrun.s16 d30, q12, #1 154 vqrshrun.s16 d31, q13, #1 158 vqrshrun.s16 d28, q8, #1 160 vqrshrun.s16 d29, q9, #1 162 vqrshrun.s16 d30, q10, #1 164 vqrshrun.s16 d31, q11, #1 174 vqrshrun.s16 d28, q10, #1 176 vqrshrun.s16 d2 [all...] |
H A D | ih264_iquant_itrans_recon_a9.s | 137 vld4.s16 {d20, d21, d22, d23}, [r5] @Load pu2_iscal_mat[i], i =0..15 138 vld4.s16 {d26, d27, d28, d29}, [r6] @pu2_weigh_mat[i], i =0..15 139 vmul.s16 q10, q10, q13 @x[i]=(scale[i] * dequant[i]) where i = 0..7 140 vld4.s16 {d16, d17, d18, d19}, [r0] @pi2_src_tmp[i], i =0..15 142 vmul.s16 q11, q11, q14 @x[i]=(scale[i] * dequant[i]) where i = 8..15 147 vmull.s16 q0, d16, d20 @ Q0 = p[i] = (x[i] * trns_coeff[i]) where i = 0..3 148 vmull.s16 q1, d17, d21 @ Q1 = p[i] = (x[i] * trns_coeff[i]) where i = 4..7 149 vmull.s16 q2, d18, d22 @ Q2 = p[i] = (x[i] * trns_coeff[i]) where i = 8..11 150 vmull.s16 q3, d19, d23 @ Q3 = p[i] = (x[i] * trns_coeff[i]) where i = 12..15 168 vadd.s16 d [all...] |
H A D | ih264_resi_trans_quant_a9.s | 143 vadd.s16 d8 , d0, d6 @x0 = x4+x7 144 vadd.s16 d9 , d2, d4 @x1 = x5+x6 145 vsub.s16 d10, d2, d4 @x2 = x5-x6 146 vsub.s16 d11, d0, d6 @x3 = x4-x7 148 vshl.s16 d12, d10, #1 @U_SHIFT(x2,1,shft) 149 vshl.s16 d13, d11, #1 @U_SHIFT(x3,1,shft) 151 vadd.s16 d14, d8, d9 @x4 = x0 + x1; 152 vsub.s16 d16, d8, d9 @x6 = x0 - x1; 153 vadd.s16 d15, d13, d10 @x5 = U_SHIFT(x3,1,shft) + x2; 154 vsub.s16 d1 [all...] |
H A D | ih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s | 188 vadd.s16 q0, q12, q13 191 vadd.s16 q12, q12, q13 193 vaddl.s16 q13, d18, d22 194 vmlal.s16 q13, d0, d28 195 vmlsl.s16 q13, d24, d30 197 vaddl.s16 q11, d19, d23 198 vmlal.s16 q11, d1, d28 199 vmlsl.s16 q11, d25, d30 210 vadd.s16 q9, q12, q13 213 vadd.s16 q1 [all...] |
H A D | ih264_intra_pred_chroma_a9q.s | 132 vqrshrun.s16 d12, q6, #3 133 vqrshrun.s16 d14, q7, #2 151 vqrshrun.s16 d0, q0, #2 164 vqrshrun.s16 d0, q0, #2 406 vmul.s16 q7, q5, q4 407 vmul.s16 q8, q6, q4 410 vpadd.s16 d14, d14 411 vpadd.s16 d15, d15 412 vpadd.s16 d16, d16 413 vpadd.s16 d1 [all...] |
/external/llvm/test/MC/ARM/ |
H A D | basic-arm-instructions-v8.1a.s | 43 vqrdmlah.s16 d0, d1, d2 44 //CHECK-V81aARM: vqrdmlah.s16 d0, d1, d2 @ encoding: [0x12,0x0b,0x11,0xf3] 45 //CHECK-V81aTHUMB: vqrdmlah.s16 d0, d1, d2 @ encoding: [0x11,0xff,0x12,0x0b] 47 //CHECK-V8: vqrdmlah.s16 d0, d1, d2 57 vqrdmlah.s16 q0, q1, q2 58 //CHECK-V81aARM: vqrdmlah.s16 q0, q1, q2 @ encoding: [0x54,0x0b,0x12,0xf3] 59 //CHECK-V81aTHUMB: vqrdmlah.s16 q0, q1, q2 @ encoding: [0x12,0xff,0x54,0x0b] 61 //CHECK-V8: vqrdmlah.s16 q0, q1, q2 72 vqrdmlsh.s16 d7, d6, d5 73 //CHECK-V81aARM: vqrdmlsh.s16 d [all...] |
/external/libmpeg2/common/arm/ |
H A D | impeg2_idct.s | 151 vdup.s16 q15, r4 159 vqmovun.s16 d0, q4 162 vqmovun.s16 d1, q5 166 vqmovun.s16 d2, q6 170 vqmovun.s16 d3, q7 174 vqmovun.s16 d4, q8 178 vqmovun.s16 d5, q9 182 vqmovun.s16 d6, q10 185 vqmovun.s16 d7, q11 228 vmovl.s16 q [all...] |
/external/libjpeg-turbo/simd/ |
H A D | jsimd_arm_neon.S | 246 vmul.s16 q8, q8, q0 248 vmul.s16 q9, q9, q1 250 vmul.s16 q10, q10, q2 252 vmul.s16 q11, q11, q3 254 vmul.s16 q12, q12, q0 256 vmul.s16 q14, q14, q2 257 vmul.s16 q13, q13, q1 260 vmul.s16 q15, q15, q3 263 vadd.s16 d4, ROW7L, ROW3L 264 vadd.s16 d [all...] |
/external/clang/test/CodeGen/ |
H A D | mips64-padding-arg.c | 64 S16 s16; variable 69 foo10(1, s16);
|