/external/libvpx/vp8/encoder/arm/neon/ |
H A D | vp8_mse16x16_neon.asm | 54 vmlal.s16 q9, d24, d24 109 vmlal.s16 q9, d24, d24 157 vmull.s16 q8, d24, d24
|
H A D | variance_neon.asm | 56 vmlal.s16 q9, d24, d24 126 vmlal.s16 q9, d24, d24 187 vmlal.s16 q9, d24, d24 246 vmlal.s16 q9, d24, d24
|
H A D | shortfdct_neon.asm | 56 vrshrn.i32 d24, q12, #14 66 vmlal.s16 q4, d24, d5[0] 67 vmlal.s16 q5, d24, d5[1] 68 vmlal.s16 q6, d24, d5[2] 69 vmlal.s16 q7, d24, d5[3]
|
H A D | vp8_subpixelvariance8x8_neon.asm | 69 vqrshrn.u16 d24, q8, #7 115 vmull.u8 q3, d24, d0 123 vmlal.u8 q2, d24, d1 133 vqrshrn.u16 d24, q3, #7 146 vld1.u8 {d24}, [r0], r1 174 vsubl.u8 q6, d24, d2
|
H A D | vp8_subpixelvariance16x16_neon.asm | 190 vld1.u8 {d24, d25}, [lr]! 195 vmull.u8 q3, d24, d0 204 vmlal.u8 q1, d24, d1 ;(src_ptr[pixel_step] * Filter[1]) 317 vld1.u8 {d24, d25}, [r0], r1 322 vmull.u8 q3, d24, d0 331 vmlal.u8 q1, d24, d1 ;(src_ptr[pixel_step] * Filter[1]) 388 vmlal.s16 q9, d24, d24
|
H A D | fastfdct8x4_neon.asm | 56 vsub.s16 d24, d5, d7 66 vadd.s16 d24, d2, d3 86 vadd.s16 d3, d24, d26 ;op[0] = ((temp1 * x_c2 )>>16) + temp1 112 vsub.s16 d24, d5, d7
|
H A D | vp8_subpixelvariance16x16s_neon.asm | 68 vsubl.u8 q6, d2, d24 175 vmlal.s16 q9, d24, d24 296 vmlal.s16 q14, d24, d24 ;sse 427 vld1.u8 {d24, d25, d26, d27}, [r0], r1 530 vmlal.s16 q9, d24, d24
|
H A D | subtract_neon.asm | 54 vst1.16 {d24}, [r5], r2
|
/external/libvpx/vp8/common/arm/neon/ |
H A D | bilinearpredict8x4_neon.asm | 67 vqrshrn.u16 d24, q8, #7 87 vmull.u8 q3, d24, d0 91 vmlal.u8 q2, d24, d1 113 vld1.u8 {d24}, [r0], r1 123 vst1.u8 {d24}, [r4], lr
|
H A D | sixtappredict16x16_neon.asm | 61 vdup.8 d0, d24[0] ;first_pass filter (d0-d5) 62 vdup.8 d1, d24[4] 217 vld1.u8 {d24}, [lr], r2 233 vmlsl.u8 q5, d24, d4 242 vmlal.u8 q4, d24, d5 249 vmull.u8 q10, d24, d3 293 vdup.8 d0, d24[0] ;first_pass filter (d0-d5) 294 vdup.8 d1, d24[4] 317 vext.8 d24, d6, d7, #4 ;construct src_ptr[2] 328 vmlsl.u8 q6, d24, d [all...] |
H A D | sixtappredict8x4_neon.asm | 51 vdup.8 d0, d24[0] ;first_pass filter (d0-d5) 52 vdup.8 d1, d24[4] 132 vqrshrun.s16 d24, q9, #7 140 vst1.u8 {d24}, [lr]! 245 vmull.u8 q5, d24, d0 249 vmlsl.u8 q4, d24, d1 258 vmlal.u8 q3, d24, d2 ;(src_ptr[0] * vp8_filter[2]) 299 vdup.8 d0, d24[0] ;first_pass filter (d0-d5) 301 vdup.8 d1, d24[4] 376 vqrshrun.s16 d24, q [all...] |
H A D | sixtappredict8x8_neon.asm | 54 vdup.8 d0, d24[0] ;first_pass filter (d0-d5) 55 vdup.8 d1, d24[4] 138 vqrshrun.s16 d24, q9, #7 145 vst1.u8 {d24}, [lr]! 273 vmlsl.u8 q5, d24, d4 282 vmlal.u8 q4, d24, d5 289 vmull.u8 q10, d24, d3 328 vdup.8 d0, d24[0] ;first_pass filter (d0-d5) 329 vdup.8 d1, d24[4] 410 vqrshrun.s16 d24, q [all...] |
H A D | sixtappredict4x4_neon.asm | 50 vdup.8 d0, d24[0] ;first_pass filter (d0-d5) 52 vdup.8 d1, d24[4] 209 vext.8 d24, d28, d29, #4 230 vmlsl.u8 q6, d24, d1 235 vmlal.u8 q5, d24, d3 ;(src_ptr[1] * vp8_filter[3]) 265 vdup.8 d0, d24[0] ;first_pass filter (d0-d5) 267 vdup.8 d1, d24[4] 368 vext.8 d24, d28, d29, #4 382 vmlsl.u8 q6, d24, d1 387 vmlal.u8 q5, d24, d [all...] |
H A D | bilinearpredict8x8_neon.asm | 66 vqrshrn.u16 d24, q8, #7 113 vmull.u8 q3, d24, d0 121 vmlal.u8 q2, d24, d1 153 vld1.u8 {d24}, [r0], r1 167 vst1.u8 {d24}, [r4], lr
|
H A D | bilinearpredict16x16_neon.asm | 184 vld1.u8 {d24, d25}, [lr]! 189 vmull.u8 q3, d24, d0 198 vmlal.u8 q1, d24, d1 ;(src_ptr[pixel_step] * vp8_filter[1]) 308 vld1.u8 {d24, d25}, [r0], r1 313 vmull.u8 q3, d24, d0 322 vmlal.u8 q1, d24, d1 ;(src_ptr[pixel_step] * vp8_filter[1])
|
H A D | recon16x16mb_neon.asm | 35 vmovl.u8 q0, d24 ;modify Pred data from 8 bits to 16 bits 86 vmovl.u8 q0, d24 ;modify Pred data from 8 bits to 16 bits
|
H A D | mbloopfilter_neon.asm | 487 vqshrn.s16 d24, q12, #7 ; u = clamp((63 + Filter2 * 18)>>7)
|
/external/llvm/test/MC/ARM/ |
H A D | neont2-pairwise-encoding.s | 74 vpmin.u32 d21, d24, d15 82 @ CHECK: vpmin.u32 d21, d24, d15 @ encoding: [0x68,0xff,0x9f,0x5a] 90 vpmax.u16 d7, d24, d13 98 @ CHECK: vpmax.u16 d7, d24, d13 @ encoding: [0x18,0xff,0x8d,0x7a]
|
/external/valgrind/main/none/tests/arm/ |
H A D | vfp.c | 1083 TESTINSN_core_to_scalar("vmov.8 d24[6], r5", d24, r5, 111); 1105 TESTINSN_scalar_to_core("vmov.u8 r9, d24[2]", r9, d24, i32, f2u(-INFINITY)); 1121 TESTINSN_scalar_to_core("vmov.s8 r9, d24[2]", r9, d24, i32, f2u(-INFINITY)); 1135 TESTINSN_bin_f64("vmla.f64 d23, d24, d25", d23, d24, i32, f2u0(-347856.475), f2u1(-347856.475), d25, i32, f2u0(1346), f2u1(1346)); 1139 TESTINSN_bin_f64("vmla.f64 d23, d24, d5", d23, d24, i3 [all...] |
H A D | vfp.stdout.exp | 74 vmov.8 d24[6], r5 :: Dd 0x556f5555 0x55555555 Dm 0x0000006f 95 vmov.u8 r9, d24[2] :: Rd 0x00000080 Qm (i32)0xff800000 111 vmov.s8 r9, d24[2] :: Rd 0xffffff80 Qm (i32)0xff800000 124 vmla.f64 d23, d24, d25 :: Qd 0xc1bbe864 0x1f579999 Qm 0xc1153b41 e6666666 Qn 0x40950800 00000000 128 vmla.f64 d23, d24, d5 :: Qd 0x40df8c00 0x800001fc Qm 0x40380000 00000000 Qn 0x40950800 00000000 134 vmla.f64 d13, d24, d5 :: Qd 0x4132771c 0x6866666e Qm 0x408b5000 00000000 Qn 0x4095a266 66666666 173 vnmla.f64 d23, d24, d25 :: Qd 0x41bbe864 0x1f5b9999 Qm 0xc1153b41 e6666666 Qn 0x40950800 00000000 177 vnmla.f64 d23, d24, d5 :: Qd 0xc0df8bff 0x7ffffe04 Qm 0x40380000 00000000 Qn 0x40950800 00000000 183 vnmla.f64 d13, d24, d5 :: Qd 0xc132771c 0x6466665e Qm 0x408b5000 00000000 Qn 0x4095a266 66666666 222 vmls.f64 d23, d24, d2 [all...] |
H A D | neon64.c | 1145 TESTINSN_un_q("vqshlu.s32 d25, d24, #28", d25, d24, i32, 16); 1149 TESTINSN_un_q("vqshlu.s32 d5, d24, #31", d5, d24, i32, -1); 1789 TESTINSN_VLDn("vld3.16 {d20,d22,d24}", d20, d22, d24, d20); 1831 TESTINSN_VLDn("vld4.32 {d20,d22,d24,d26}", d20, d22, d24, d26); 1942 TESTINSN_VSTn("vst3.16 {d20,d22,d24}", d20, d22, d24, d2 [all...] |
H A D | neon64.stdout.exp | 979 vqshlu.s32 d25, d24, #28 :: Qd 0xffffffff 0xffffffff Qm (i32)0x00000010 fpscr 08000000 980 vqshlu.s32 d25, d24, #28 :: Qd 0xffffffff 0xffffffff Qm (i32)0x00000010 fpscr 08000000 987 vqshlu.s32 d5, d24, #31 :: Qd 0x00000000 0x00000000 Qm (i32)0xffffffff fpscr 08000000 988 vqshlu.s32 d5, d24, #31 :: Qd 0xffffffff 0xffffffff Qm (i32)0xffffffff fpscr 08000000 2059 vld3.16 {d20,d22,d24} :: Result 0x131b1e1f 0x232f191d 0x1f1c121f 0x2b2b151d 0x141c1a1b 0x242c2e2f 0x131b1e1f 0x232f191d delta 0 2098 vld4.32 {d20,d22,d24,d26} :: Result 0x121f1e1f 0x232f2e2f 0x131b1a1b 0x242c2b2b 0x141c1f1c 0x252a2e2b 0x151d191d 0x262d2d2a delta 0 2202 vst3.16 {d20,d22,d24} :: Result 0x1f1c2e2b 0x252a2e2f 0x232f141c 0x191d2d2a 0x262d2b2b 0x242c151d 0x55555555 0x55555555 delta 0 2231 vst4.32 {d20,d22,d24,d26} :: Result 0x121f1e1f 0x141c1f1c 0x232f2e2f 0x252a2e2b 0x131b1a1b 0x151d191d 0x242c2b2b 0x262d2d2a delta 0 2345 vld3.16 {d20,d22,d24} :: Result 0x131b1e1f 0x232f191d 0x1f1c121f 0x2b2b151d 0x141c1a1b 0x242c2e2f 0x131b1e1f 0x232f191d delta 24 2384 vld4.32 {d20,d22,d24,d2 [all...] |
/external/libvpx/vpx_scale/arm/neon/ |
H A D | vp8_vpxyv12_extendframeborders_neon.asm | 58 vld1.8 {d24[], d25[]}, [r1], lr 170 vld1.8 {d24[], d25[]}, [r1], lr 338 vld1.8 {d24[], d25[]}, [r1], lr 441 vld1.8 {d24[]}, [r1], lr 460 vst1.8 {d24}, [r5], lr
|
H A D | vp8_vpxyv12_copyframeyonly_neon.asm | 116 vld1.8 {d24[], d25[]}, [r1], lr 255 vld1.8 {d24[], d25[]}, [r1], lr
|
/external/webkit/Source/JavaScriptCore/assembler/ |
H A D | ARMAssembler.h | 83 d24, enumerator in enum:JSC::ARMRegisters::__anon11548
|