Searched refs:s16 (Results 1 - 25 of 173) sorted by relevance

1234567

/external/libhevc/common/arm/
H A Dihevc_itrans_recon_32x32.s211 vmull.s16 q12,d8,d0[1] @// y1 * cos1(part of b0)
212 vmull.s16 q13,d8,d0[3] @// y1 * cos3(part of b1)
213 vmull.s16 q14,d8,d1[1] @// y1 * sin3(part of b2)
214 vmull.s16 q15,d8,d1[3] @// y1 * sin1(part of b3)
216 vmlal.s16 q12,d9,d0[3] @// y1 * cos1 + y3 * cos3(part of b0)
217 vmlal.s16 q13,d9,d2[1] @// y1 * cos3 - y3 * sin1(part of b1)
218 vmlal.s16 q14,d9,d3[3] @// y1 * sin3 - y3 * cos1(part of b2)
219 vmlal.s16 q15,d9,d5[1] @// y1 * sin1 - y3 * sin3(part of b3)
225 vmull.s16 q10,d10,d0[0]
226 vmlal.s16 q1
[all...]
H A Dihevc_itrans_recon_16x16.s242 vmull.s16 q12,d6,d0[1] @// y1 * cos1(part of b0)
243 vmull.s16 q13,d6,d0[3] @// y1 * cos3(part of b1)
244 vmull.s16 q14,d6,d1[1] @// y1 * sin3(part of b2)
245 vmull.s16 q15,d6,d1[3] @// y1 * sin1(part of b3)
247 vmlal.s16 q12,d7,d0[3] @// y1 * cos1 + y3 * cos3(part of b0)
248 vmlal.s16 q13,d7,d2[1] @// y1 * cos3 - y3 * sin1(part of b1)
249 vmlal.s16 q14,d7,d3[3] @// y1 * sin3 - y3 * cos1(part of b2)
250 vmlsl.s16 q15,d7,d2[3] @// y1 * sin1 - y3 * sin3(part of b3)
257 vmull.s16 q6,d10,d0[0]
258 vmlal.s16 q
[all...]
H A Dihevc_itrans_recon_8x8.s187 vmull.s16 q10,d2,d0[0] @// y0 * cos4(part of c0 and c1)
189 vmull.s16 q9,d3,d1[2] @// y2 * sin2 (q3 is freed by this time)(part of d1)
192 vmull.s16 q12,d6,d0[1] @// y1 * cos1(part of b0)
194 vmull.s16 q13,d6,d0[3] @// y1 * cos3(part of b1)
196 vmull.s16 q14,d6,d1[1] @// y1 * sin3(part of b2)
198 vmull.s16 q15,d6,d1[3] @// y1 * sin1(part of b3)
200 vmlal.s16 q12,d7,d0[3] @// y1 * cos1 + y3 * cos3(part of b0)
202 vmlsl.s16 q13,d7,d1[3] @// y1 * cos3 - y3 * sin1(part of b1)
204 vmlsl.s16 q14,d7,d0[1] @// y1 * sin3 - y3 * cos1(part of b2)
206 vmlsl.s16 q1
[all...]
H A Dihevc_inter_pred_chroma_vert_w16inp.s139 vmull.s16 q0,d0,d12 @vmull_s16(src_tmp1, coeff_0)
142 vmull.s16 q4,d2,d12 @vmull_s16(src_tmp2, coeff_0)
144 vmlal.s16 q0,d2,d13
146 vmlal.s16 q4,d3,d13
149 vmlal.s16 q0,d3,d14
150 vmlal.s16 q4,d6,d14
151 vmlal.s16 q0,d6,d15
152 vmlal.s16 q4,d2,d15
155 vqrshrun.s16 d0,q0,#6 @rounding shift
156 vqrshrun.s16 d3
[all...]
H A Dihevc_weighted_pred_bi_default.s136 vadd.s16 q0,q0,q2
181 vld1.s16 {d6},[r0]! @load and increment the pi2_src1
183 vld1.s16 {d7},[r1]! @load and increment the pi2_src2
184 vld1.s16 {d8},[r11],r3 @load and increment the pi2_src1 ii iteration
185 vqadd.s16 d18,d6,d7
186 vqadd.s16 d18,d18,d0 @vaddq_s32(i4_tmp1_t1, tmp_lvl_shift_t)
187 vld1.s16 {d9},[r12],r4 @load and increment the pi2_src2 ii iteration
188 vqadd.s16 d20,d8,d9 @vaddq_s32(i4_tmp2_t1, i4_tmp2_t2)
189 vqadd.s16 d19,d20,d0 @vaddq_s32(i4_tmp2_t1, tmp_lvl_shift_t)
190 vqshrun.s16 d2
[all...]
H A Dihevc_inter_pred_filters_luma_vert_w16inp.s148 vmull.s16 q4,d1,d23 @mul_res1 = vmull_u8(src_tmp2, coeffabs_1)@
150 vmlal.s16 q4,d0,d22 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_0)@
152 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@
154 vmlal.s16 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@
156 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@
158 vmlal.s16 q4,d5,d27 @mul_res1 = vmlal_u8(mul_res1, src_tmp2, coeffabs_5)@
159 vmlal.s16 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@
160 vmlal.s16 q4,d7,d29 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_7)@
164 vmull.s16 q5,d2,d23 @mul_res2 = vmull_u8(src_tmp3, coeffabs_1)@
166 vmlal.s16 q
[all...]
H A Dihevc_inter_pred_luma_vert_w16inp_w16out.s158 vmull.s16 q4,d1,d23 @mul_res1 = vmull_u8(src_tmp2, coeffabs_1)@
160 vmlal.s16 q4,d0,d22 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_0)@
162 vmlal.s16 q4,d2,d24 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_2)@
164 vmlal.s16 q4,d3,d25 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_3)@
166 vmlal.s16 q4,d4,d26 @mul_res1 = vmlal_u8(mul_res1, src_tmp1, coeffabs_4)@
168 vmlal.s16 q4,d5,d27 @mul_res1 = vmlal_u8(mul_res1, src_tmp2, coeffabs_5)@
169 vmlal.s16 q4,d6,d28 @mul_res1 = vmlal_u8(mul_res1, src_tmp3, coeffabs_6)@
170 vmlal.s16 q4,d7,d29 @mul_res1 = vmlal_u8(mul_res1, src_tmp4, coeffabs_7)@
174 vmull.s16 q5,d2,d23 @mul_res2 = vmull_u8(src_tmp3, coeffabs_1)@
176 vmlal.s16 q
[all...]
H A Dihevc_itrans_recon_4x4_ttype1.s143 vmull.s16 q3,d1,d4[2] @74 * pi2_src[1]
144 vmlal.s16 q3,d0,d4[0] @74 * pi2_src[1] + 29 * pi2_src[0]
145 vmlal.s16 q3,d3,d4[1] @74 * pi2_src[1] + 29 * pi2_src[0] + 55 * pi2_src[3]
146 vmlal.s16 q3,d2,d4[3] @pi2_out[0] = 29* pi2_src[0] + 74 * pi2_src[1] + 84* pi2_src[2] + 55 * pi2_src[3]
148 vmull.s16 q4,d1,d4[2] @74 * pi2_src[1]
149 vmlal.s16 q4,d0,d4[1] @74 * pi2_src[1] + 55 * pi2_src[0]
150 vmlsl.s16 q4,d2,d4[0] @74 * pi2_src[1] + 55 * pi2_src[0] - 29 * pi2_src[2]
151 vmlsl.s16 q4,d3,d4[3] @pi2_out[1] = 74 * pi2_src[1] + 55 * pi2_src[0] - 29 * pi2_src[2] - 84 * pi2_src[3])
153 vmull.s16 q5,d0,d4[2] @ 74 * pi2_src[0]
154 vmlsl.s16 q
[all...]
H A Dihevc_inter_pred_chroma_vert_w16inp_w16out.s139 vmull.s16 q0,d0,d12 @vmull_s16(src_tmp1, coeff_0)
142 vmull.s16 q4,d2,d12 @vmull_s16(src_tmp2, coeff_0)
144 vmlal.s16 q0,d2,d13
146 vmlal.s16 q4,d3,d13
149 vmlal.s16 q0,d3,d14
150 vmlal.s16 q4,d6,d14
151 vmlal.s16 q0,d6,d15
152 vmlal.s16 q4,d2,d15
186 vmull.s16 q15,d0,d12 @vmull_s16(src_tmp1, coeff_0)
188 vmlal.s16 q1
[all...]
/external/libavc/encoder/arm/
H A Dih264e_half_pel.s170 vqrshrun.s16 d20, q4, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column1,row0)
171 vqrshrun.s16 d21, q5, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column2,row0)
172 vqrshrun.s16 d22, q6, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column3,row0)
173 vqrshrun.s16 d23, q7, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column1,row1)
174 vqrshrun.s16 d24, q8, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column2,row1)
175 vqrshrun.s16 d25, q9, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column3,row1)
316 vqrshrun.s16 d2, q10, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column1,row0)
318 vqrshrun.s16 d3, q11, #5 @// (a0 + a5 + 20a2 + 20a3 - 5a1 - 5a4 + 16) >> 5 (column2,row0)
321 vaddl.s16 q13, d31, d20 @// a0 + a5 (set1)
323 vmlal.s16 q1
[all...]
/external/lldb/test/lang/cpp/char1632_t/
H A Dmain.cpp15 char16_t *s16 = (char16_t *)u"ﺸﺵۻ"; local
19 s16 = (char16_t *)u"色ハ匂ヘト散リヌルヲ";
/external/lldb/test/lang/cpp/rdar12991846/
H A Dmain.cpp15 char16_t *s16 = (char16_t *)u"ﺸﺵۻ"; local
19 s16 = (char16_t *)u"色ハ匂ヘト散リヌルヲ";
/external/libvpx/libvpx/vpx_dsp/arm/
H A Didct16x16_add_neon.asm53 vld2.s16 {q8,q9}, [r0]!
54 vld2.s16 {q9,q10}, [r0]!
55 vld2.s16 {q10,q11}, [r0]!
56 vld2.s16 {q11,q12}, [r0]!
57 vld2.s16 {q12,q13}, [r0]!
58 vld2.s16 {q13,q14}, [r0]!
59 vld2.s16 {q14,q15}, [r0]!
60 vld2.s16 {q1,q2}, [r0]!
61 vmov.s16 q15, q1
88 vmull.s16 q
[all...]
H A Dintrapred_neon_asm.asm315 vadd.s16 q1, q1, q3
316 vadd.s16 q2, q2, q3
317 vqmovun.s16 d0, q1
318 vqmovun.s16 d1, q2
327 vadd.s16 q1, q1, q3
328 vadd.s16 q2, q2, q3
329 vqmovun.s16 d0, q1
330 vqmovun.s16 d1, q2
364 vadd.s16 q0, q3, q0
365 vadd.s16 q
[all...]
H A Didct32x32_add_neon.asm65 vld1.s16 {q14}, [r0]
67 vld1.s16 {q13}, [r0]
81 vld1.s16 {$reg1}, [r1]
83 vld1.s16 {$reg2}, [r1]
107 vld1.s16 {d8}, [r10], r2
108 vld1.s16 {d11}, [r9], r11
109 vld1.s16 {d9}, [r10]
110 vld1.s16 {d10}, [r9]
112 vrshr.s16 q7, q7, #6
113 vrshr.s16 q
[all...]
/external/libavc/common/arm/
H A Dih264_inter_pred_luma_horz_hpel_vert_hpel_a9q.s124 vmov.s16 d0, #20 @ Filter coeff 20
125 vmov.s16 d1, #5 @ Filter coeff 5
149 vmls.s16 q12, q11, d1[0] @ temp -= temp2 * 5
154 vmls.s16 q13, q10, d1[0] @ temp -= temp2 * 5
158 vmls.s16 q14, q10, d1[0] @ temp -= temp2 * 5
164 vaddl.s16 q1, d20, d24 @// a0 + a5 (column1)
165 vaddl.s16 q15, d21, d25 @// a0 + a5 (column1)
166 vmlal.s16 q1, d22, d0[0] @// a0 + a5 + 20a2 (column1)
167 vmlal.s16 q15, d23, d0[0] @// a0 + a5 + 20a2 (column1)
170 vmlsl.s16 q
[all...]
H A Dih264_inter_pred_luma_bilinear_a9q.s150 vqrshrun.s16 d28, q10, #1
151 vqrshrun.s16 d29, q11, #1
153 vqrshrun.s16 d30, q12, #1
154 vqrshrun.s16 d31, q13, #1
158 vqrshrun.s16 d28, q8, #1
160 vqrshrun.s16 d29, q9, #1
162 vqrshrun.s16 d30, q10, #1
164 vqrshrun.s16 d31, q11, #1
174 vqrshrun.s16 d28, q10, #1
176 vqrshrun.s16 d2
[all...]
H A Dih264_iquant_itrans_recon_a9.s137 vld4.s16 {d20, d21, d22, d23}, [r5] @Load pu2_iscal_mat[i], i =0..15
138 vld4.s16 {d26, d27, d28, d29}, [r6] @pu2_weigh_mat[i], i =0..15
139 vmul.s16 q10, q10, q13 @x[i]=(scale[i] * dequant[i]) where i = 0..7
140 vld4.s16 {d16, d17, d18, d19}, [r0] @pi2_src_tmp[i], i =0..15
142 vmul.s16 q11, q11, q14 @x[i]=(scale[i] * dequant[i]) where i = 8..15
147 vmull.s16 q0, d16, d20 @ Q0 = p[i] = (x[i] * trns_coeff[i]) where i = 0..3
148 vmull.s16 q1, d17, d21 @ Q1 = p[i] = (x[i] * trns_coeff[i]) where i = 4..7
149 vmull.s16 q2, d18, d22 @ Q2 = p[i] = (x[i] * trns_coeff[i]) where i = 8..11
150 vmull.s16 q3, d19, d23 @ Q3 = p[i] = (x[i] * trns_coeff[i]) where i = 12..15
168 vadd.s16 d
[all...]
H A Dih264_resi_trans_quant_a9.s143 vadd.s16 d8 , d0, d6 @x0 = x4+x7
144 vadd.s16 d9 , d2, d4 @x1 = x5+x6
145 vsub.s16 d10, d2, d4 @x2 = x5-x6
146 vsub.s16 d11, d0, d6 @x3 = x4-x7
148 vshl.s16 d12, d10, #1 @U_SHIFT(x2,1,shft)
149 vshl.s16 d13, d11, #1 @U_SHIFT(x3,1,shft)
151 vadd.s16 d14, d8, d9 @x4 = x0 + x1;
152 vsub.s16 d16, d8, d9 @x6 = x0 - x1;
153 vadd.s16 d15, d13, d10 @x5 = U_SHIFT(x3,1,shft) + x2;
154 vsub.s16 d1
[all...]
H A Dih264_inter_pred_luma_horz_qpel_vert_hpel_a9q.s188 vadd.s16 q0, q12, q13
191 vadd.s16 q12, q12, q13
193 vaddl.s16 q13, d18, d22
194 vmlal.s16 q13, d0, d28
195 vmlsl.s16 q13, d24, d30
197 vaddl.s16 q11, d19, d23
198 vmlal.s16 q11, d1, d28
199 vmlsl.s16 q11, d25, d30
210 vadd.s16 q9, q12, q13
213 vadd.s16 q1
[all...]
H A Dih264_intra_pred_chroma_a9q.s132 vqrshrun.s16 d12, q6, #3
133 vqrshrun.s16 d14, q7, #2
151 vqrshrun.s16 d0, q0, #2
164 vqrshrun.s16 d0, q0, #2
406 vmul.s16 q7, q5, q4
407 vmul.s16 q8, q6, q4
410 vpadd.s16 d14, d14
411 vpadd.s16 d15, d15
412 vpadd.s16 d16, d16
413 vpadd.s16 d1
[all...]
/external/llvm/test/MC/ARM/
H A Dbasic-arm-instructions-v8.1a.s43 vqrdmlah.s16 d0, d1, d2
44 //CHECK-V81aARM: vqrdmlah.s16 d0, d1, d2 @ encoding: [0x12,0x0b,0x11,0xf3]
45 //CHECK-V81aTHUMB: vqrdmlah.s16 d0, d1, d2 @ encoding: [0x11,0xff,0x12,0x0b]
47 //CHECK-V8: vqrdmlah.s16 d0, d1, d2
57 vqrdmlah.s16 q0, q1, q2
58 //CHECK-V81aARM: vqrdmlah.s16 q0, q1, q2 @ encoding: [0x54,0x0b,0x12,0xf3]
59 //CHECK-V81aTHUMB: vqrdmlah.s16 q0, q1, q2 @ encoding: [0x12,0xff,0x54,0x0b]
61 //CHECK-V8: vqrdmlah.s16 q0, q1, q2
72 vqrdmlsh.s16 d7, d6, d5
73 //CHECK-V81aARM: vqrdmlsh.s16 d
[all...]
/external/libmpeg2/common/arm/
H A Dimpeg2_idct.s151 vdup.s16 q15, r4
159 vqmovun.s16 d0, q4
162 vqmovun.s16 d1, q5
166 vqmovun.s16 d2, q6
170 vqmovun.s16 d3, q7
174 vqmovun.s16 d4, q8
178 vqmovun.s16 d5, q9
182 vqmovun.s16 d6, q10
185 vqmovun.s16 d7, q11
228 vmovl.s16 q
[all...]
/external/libjpeg-turbo/simd/
H A Djsimd_arm_neon.S246 vmul.s16 q8, q8, q0
248 vmul.s16 q9, q9, q1
250 vmul.s16 q10, q10, q2
252 vmul.s16 q11, q11, q3
254 vmul.s16 q12, q12, q0
256 vmul.s16 q14, q14, q2
257 vmul.s16 q13, q13, q1
260 vmul.s16 q15, q15, q3
263 vadd.s16 d4, ROW7L, ROW3L
264 vadd.s16 d
[all...]
/external/clang/test/CodeGen/
H A Dmips64-padding-arg.c64 S16 s16; variable
69 foo10(1, s16);

Completed in 1359 milliseconds

1234567