Lines Matching refs:u8

37 ; filter coeffs to make them u8. Then, use vmlsl for negtive coeffs. After multiplication,
81 vld1.u8 {d6, d7, d8}, [r0], r1 ;load src data
82 vld1.u8 {d9, d10, d11}, [r0], r1
83 vld1.u8 {d12, d13, d14}, [r0], r1
89 vmull.u8 q8, d6, d0 ;(src_ptr[-2] * vp8_filter[0])
90 vmull.u8 q9, d7, d0
91 vmull.u8 q10, d9, d0
92 vmull.u8 q11, d10, d0
93 vmull.u8 q12, d12, d0
94 vmull.u8 q13, d13, d0
100 vmlsl.u8 q8, d28, d1 ;-(src_ptr[-1] * vp8_filter[1])
101 vmlsl.u8 q10, d29, d1
102 vmlsl.u8 q12, d30, d1
108 vmlsl.u8 q9, d28, d1 ;-(src_ptr[-1] * vp8_filter[1])
109 vmlsl.u8 q11, d29, d1
110 vmlsl.u8 q13, d30, d1
116 vmlsl.u8 q8, d28, d4 ;-(src_ptr[2] * vp8_filter[4])
117 vmlsl.u8 q10, d29, d4
118 vmlsl.u8 q12, d30, d4
124 vmlsl.u8 q9, d28, d4 ;-(src_ptr[2] * vp8_filter[4])
125 vmlsl.u8 q11, d29, d4
126 vmlsl.u8 q13, d30, d4
132 vmlal.u8 q8, d28, d5 ;(src_ptr[3] * vp8_filter[5])
133 vmlal.u8 q10, d29, d5
134 vmlal.u8 q12, d30, d5
140 vmlal.u8 q9, d28, d5 ;(src_ptr[3] * vp8_filter[5])
141 vmlal.u8 q11, d29, d5
142 vmlal.u8 q13, d30, d5
148 vmlal.u8 q8, d28, d2 ;(src_ptr[0] * vp8_filter[2])
149 vmlal.u8 q10, d29, d2
150 vmlal.u8 q12, d30, d2
156 vmlal.u8 q9, d28, d2 ;(src_ptr[0] * vp8_filter[2])
157 vmlal.u8 q11, d29, d2
158 vmlal.u8 q13, d30, d2
168 vmull.u8 q4, d28, d3 ;(src_ptr[1] * vp8_filter[3])
169 vmull.u8 q5, d29, d3
170 vmull.u8 q6, d30, d3
176 vmull.u8 q6, d15, d3 ;(src_ptr[1] * vp8_filter[3])
177 vmull.u8 q7, d31, d3
178 vmull.u8 q3, d6, d3
186 vqrshrun.s16 d6, q8, #7 ;shift/round/saturate to u8
193 vst1.u8 {d6, d7, d8}, [lr]! ;store result
194 vst1.u8 {d9, d10, d11}, [lr]!
219 vld1.u8 {d18}, [lr], r2 ;load src data
220 vld1.u8 {d19}, [lr], r2
221 vld1.u8 {d20}, [lr], r2
222 vld1.u8 {d21}, [lr], r2
224 vld1.u8 {d22}, [lr], r2
227 vld1.u8 {d23}, [lr], r2 ;load src data
228 vld1.u8 {d24}, [lr], r2
229 vld1.u8 {d25}, [lr], r2
230 vld1.u8 {d26}, [lr], r2
232 vmull.u8 q3, d18, d0 ;(src_ptr[-2] * vp8_filter[0])
233 vmull.u8 q4, d19, d0
234 vmull.u8 q5, d20, d0
235 vmull.u8 q6, d21, d0
237 vmlsl.u8 q3, d19, d1 ;-(src_ptr[-1] * vp8_filter[1])
238 vmlsl.u8 q4, d20, d1
239 vmlsl.u8 q5, d21, d1
240 vmlsl.u8 q6, d22, d1
242 vmlsl.u8 q3, d22, d4 ;-(src_ptr[2] * vp8_filter[4])
243 vmlsl.u8 q4, d23, d4
244 vmlsl.u8 q5, d24, d4
245 vmlsl.u8 q6, d25, d4
247 vmlal.u8 q3, d20, d2 ;(src_ptr[0] * vp8_filter[2])
248 vmlal.u8 q4, d21, d2
249 vmlal.u8 q5, d22, d2
250 vmlal.u8 q6, d23, d2
252 vmlal.u8 q3, d23, d5 ;(src_ptr[3] * vp8_filter[5])
253 vmlal.u8 q4, d24, d5
254 vmlal.u8 q5, d25, d5
255 vmlal.u8 q6, d26, d5
257 vmull.u8 q7, d21, d3 ;(src_ptr[1] * vp8_filter[3])
258 vmull.u8 q8, d22, d3
259 vmull.u8 q9, d23, d3
260 vmull.u8 q10, d24, d3
269 vqrshrun.s16 d6, q7, #7 ;shift/round/saturate to u8
274 vst1.u8 {d6}, [r4], r5 ;store result
276 vst1.u8 {d7}, [r4], r5
278 vst1.u8 {d8}, [r4], r5
280 vst1.u8 {d9}, [r4], r5
313 vld1.u8 {d6, d7, d8}, [r0], r1 ;load src data
314 vld1.u8 {d9, d10, d11}, [r0], r1
319 vmull.u8 q6, d6, d0 ;(src_ptr[-2] * vp8_filter[0])
320 vmull.u8 q7, d7, d0
321 vmull.u8 q8, d9, d0
322 vmull.u8 q9, d10, d0
335 vmlsl.u8 q6, d20, d1 ;-(src_ptr[-1] * vp8_filter[1])
336 vmlsl.u8 q8, d21, d1
337 vmlsl.u8 q7, d22, d1 ;-(src_ptr[-1] * vp8_filter[1])
338 vmlsl.u8 q9, d23, d1
339 vmlsl.u8 q6, d24, d4 ;-(src_ptr[2] * vp8_filter[4])
340 vmlsl.u8 q8, d25, d4
341 vmlsl.u8 q7, d26, d4 ;-(src_ptr[2] * vp8_filter[4])
342 vmlsl.u8 q9, d27, d4
343 vmlal.u8 q6, d28, d5 ;(src_ptr[3] * vp8_filter[5])
344 vmlal.u8 q8, d29, d5
358 vmlal.u8 q7, d20, d5 ;(src_ptr[3] * vp8_filter[5])
359 vmlal.u8 q9, d21, d5
360 vmlal.u8 q6, d22, d2 ;(src_ptr[0] * vp8_filter[2])
361 vmlal.u8 q8, d23, d2
362 vmlal.u8 q7, d24, d2 ;(src_ptr[0] * vp8_filter[2])
363 vmlal.u8 q9, d25, d2
365 vmull.u8 q10, d26, d3 ;(src_ptr[1] * vp8_filter[3])
366 vmull.u8 q11, d27, d3
367 vmull.u8 q12, d28, d3 ;(src_ptr[1] * vp8_filter[3])
368 vmull.u8 q15, d29, d3
377 vqrshrun.s16 d6, q6, #7 ;shift/round/saturate to u8
382 vst1.u8 {q3}, [r4], r5 ;store result
383 vst1.u8 {q4}, [r4], r5
409 vld1.u8 {d18}, [r0], r1 ;load src data
410 vld1.u8 {d19}, [r0], r1
411 vld1.u8 {d20}, [r0], r1
412 vld1.u8 {d21}, [r0], r1
414 vld1.u8 {d22}, [r0], r1
417 vld1.u8 {d23}, [r0], r1 ;load src data
418 vld1.u8 {d24}, [r0], r1
419 vld1.u8 {d25}, [r0], r1
420 vld1.u8 {d26}, [r0], r1
422 vmull.u8 q3, d18, d0 ;(src_ptr[-2] * vp8_filter[0])
423 vmull.u8 q4, d19, d0
424 vmull.u8 q5, d20, d0
425 vmull.u8 q6, d21, d0
427 vmlsl.u8 q3, d19, d1 ;-(src_ptr[-1] * vp8_filter[1])
428 vmlsl.u8 q4, d20, d1
429 vmlsl.u8 q5, d21, d1
430 vmlsl.u8 q6, d22, d1
432 vmlsl.u8 q3, d22, d4 ;-(src_ptr[2] * vp8_filter[4])
433 vmlsl.u8 q4, d23, d4
434 vmlsl.u8 q5, d24, d4
435 vmlsl.u8 q6, d25, d4
437 vmlal.u8 q3, d20, d2 ;(src_ptr[0] * vp8_filter[2])
438 vmlal.u8 q4, d21, d2
439 vmlal.u8 q5, d22, d2
440 vmlal.u8 q6, d23, d2
442 vmlal.u8 q3, d23, d5 ;(src_ptr[3] * vp8_filter[5])
443 vmlal.u8 q4, d24, d5
444 vmlal.u8 q5, d25, d5
445 vmlal.u8 q6, d26, d5
447 vmull.u8 q7, d21, d3 ;(src_ptr[1] * vp8_filter[3])
448 vmull.u8 q8, d22, d3
449 vmull.u8 q9, d23, d3
450 vmull.u8 q10, d24, d3
459 vqrshrun.s16 d6, q7, #7 ;shift/round/saturate to u8
464 vst1.u8 {d6}, [r4], r5 ;store result
466 vst1.u8 {d7}, [r4], r5
468 vst1.u8 {d8}, [r4], r5
470 vst1.u8 {d9}, [r4], r5