Searched refs:U32 (Results 1 - 25 of 100) sorted by relevance

1234

/external/syslinux/gpxe/src/drivers/net/phantom/
H A Dnxhal_nic_interface.h15 typedef U32 nx_reg_addr_t;
186 typedef U32 nx_rx_rule_type_t;
195 typedef U32 nx_rx_rule_cmd_t;
223 U32 id;
224 U32 active;
254 typedef U32 nx_host_ctx_state_t;
300 U32 ring_size; /* Ring entries */
301 U32 rsvd; /* Padding */
308 U32 capabilities[4]; /* Flag bit vector */
309 U32 host_int_crb_mod
[all...]
/external/lz4/programs/
H A Ddatagen.c30 #include "util.h" /* U32 */
60 static unsigned int RDG_rand(U32* src)
62 U32 rand32 = *src;
76 U32 u = 0;
79 U32 const weight = (U32)((double)(LTSIZE - u) * ld) + 1;
80 U32 const end = MIN(u+weight, LTSIZE);
88 static BYTE RDG_genChar(U32* seed, const litDistribTable lt)
90 U32 id = RDG_rand(seed) & LTMASK;
101 const U32 matchProba3
[all...]
H A Dbench.c79 static U32 g_compressibilityDefault = 50;
87 static U32 g_displayLevel = 2; /* 0 : no display; 1: errors; 2 : + result + interaction + warnings; 3 : + progression; 4 : + information */
117 static U32 g_nbSeconds = NBSECONDS;
160 const size_t* fileSizes, U32 nbFiles)
163 U32 const maxNbBlocks = (U32) ((srcSize + (blockSize-1)) / blockSize) + nbFiles;
168 U32 nbBlocks;
198 U32 fileNb;
201 U32 const nbBlocksforThisFile = (U32)((remainin
[all...]
/external/tensorflow/tensorflow/compiler/xla/service/
H A Dhlo_sharding_test.cc43 Shape tile_shape = ShapeUtil::MakeShape(U32, {4});
53 EXPECT_IS_OK(sharding.Validate(ShapeUtil::MakeShape(U32, {4}),
69 EXPECT_IS_OK(sharding.Validate(ShapeUtil::MakeShape(U32, {4}),
72 sharding.Validate(ShapeUtil::MakeShape(U32, {4}), /*num_devices=*/5));
75 sharding.GetAsShapeTree(ShapeUtil::MakeShape(U32, {4}));
83 Shape tile_shape = ShapeUtil::MakeShape(U32, {2, 3});
92 Shape tile_shape = ShapeUtil::MakeShape(U32, {2, 3});
95 EXPECT_IS_NOT_OK(sharding.Validate(ShapeUtil::MakeShape(U32, {4, 6}),
101 Shape tile_shape = ShapeUtil::MakeShape(U32, {2, 3});
111 Shape tile_shape = ShapeUtil::MakeShape(U32, {
[all...]
/external/libxaac/decoder/armv7/
H A Dixheaacd_pre_twiddle_compute.s129 VSHR.U32 Q15, Q15, #16
130 VSHR.U32 Q14, Q14, #16
131 VSHR.U32 Q13, Q13, #16
132 VSHR.U32 Q12, Q12, #16
148 VSHR.U32 Q11, Q11, #16
149 VSHR.U32 Q10, Q10, #16
150 VSHR.U32 Q9, Q9, #16
151 VSHR.U32 Q8, Q8, #16
198 VSHR.U32 Q15, Q15, #16
199 VSHR.U32 Q1
[all...]
H A Dixheaacd_post_twiddle.s117 VSHR.U32 Q15, Q15, #16
118 VSHR.U32 Q14, Q14, #16
119 VSHR.U32 Q13, Q13, #16
120 VSHR.U32 Q12, Q12, #16
139 VSHR.U32 Q11, Q11, #16
142 VSHR.U32 Q10, Q10, #16
145 VSHR.U32 Q9, Q9, #16
148 VSHR.U32 Q8, Q8, #16
173 VSHR.U32 Q0, Q0, #16
176 VSHR.U32 Q
[all...]
H A Dixheaacd_post_twiddle_overlap.s212 VSHR.U32 Q15, Q15, #16
215 VSHR.U32 Q14, Q14, #16
224 VSHR.U32 Q13, Q13, #16
227 VSHR.U32 Q12, Q12, #16
253 VSHR.U32 Q11, Q11, #16
256 VSHR.U32 Q1, Q1, #16
257 VSHR.U32 Q0, Q0, #16
310 VSHR.U32 Q4, Q4, #16
311 VSHR.U32 Q13, Q13, #16
316 VSHR.U32 Q
[all...]
H A Dixheaacd_overlap_add1.s72 VSHR.U32 Q15, Q15, #16
93 VSHR.U32 Q12, Q12, #16
129 VSHR.U32 Q15, Q15, #16
131 VSHR.U32 Q12, Q12, #16
179 VSHR.U32 Q15, Q15, #16
183 VSHR.U32 Q12, Q12, #16
239 VSHR.U32 Q15, Q15, #16
241 VSHR.U32 Q12, Q12, #16
H A Dixheaacd_dct3_32.s94 VSHR.U32 Q15, Q15, #16
134 VSHR.U32 Q15, Q15, #16
180 VSHR.U32 Q15, Q15, #16
227 VSHR.U32 Q15, Q15, #16
280 VSHR.U32 Q15, Q15, #16
331 VSHR.U32 Q15, Q15, #16
383 VSHR.U32 Q15, Q15, #16
441 VSHR.U32 Q15, Q15, #16
/external/lz4/tests/
H A Dframetest.c38 #include "util.h" /* U32 */
50 static void FUZ_writeLE32 (void* dstVoidPtr, U32 value32)
69 static const U32 nbTestsDefault = 256 KB;
72 static const U32 prime1 = 2654435761U;
73 static const U32 prime2 = 2246822519U;
93 static U32 no_prompt = 0;
94 static U32 displayLevel = 2;
95 static U32 use_pause = 0;
113 U32 rand32 = *src;
124 static void FUZ_fillCompressibleNoiseBuffer(void* buffer, size_t bufferSize, double proba, U32* see
[all...]
H A Dfuzzer.c40 #include "util.h" /* U32 */
104 static U32 FUZ_rotl32(U32 u32, U32 nbBits)
109 static U32 FUZ_rand(U32* src)
111 U32 rand32 = *src;
122 static void FUZ_fillCompressibleNoiseBuffer(void* buffer, size_t bufferSize, double proba, U32* seed)
126 U32 const P32 = (U32)(3276
[all...]
H A Ddatagencli.c30 #include "util.h" /* U32 */
83 U32 seed = SEED_DEFAULT;
166 if (proba!=COMPRESSIBILITY_DEFAULT) DISPLAYLEVEL(3, "Compressibility : %i%%\n", (U32)(proba*100));
/external/lz4/lib/
H A Dxxhash.c138 typedef uint32_t U32; typedef
143 typedef unsigned int U32; typedef
151 static U32 XXH_read32(const void* memPtr) { return *(const U32*) memPtr; }
157 typedef union { U32 u32; } __attribute__((packed)) unalign;
158 static U32 XXH_read32(const void* ptr) { return ((const unalign*)ptr)->u32; }
165 static U32 XXH_read32(const void* memPtr)
167 U32 val;
194 static U32 XXH_swap32 (U32
[all...]
H A Dlz4.c141 typedef uint32_t U32; typedef
148 typedef unsigned int U32; typedef
165 const union { U32 u; BYTE c[4]; } one = { 1 }; /* don't use static : performance detrimental */
174 static U32 LZ4_read32(const void* memPtr) { return *(const U32*) memPtr; }
178 static void LZ4_write32(void* memPtr, U32 value) { *(U32*)memPtr = value; }
184 typedef union { U16 u16; U32 u32; reg_t uArch; } __attribute__((packed)) unalign;
187 static U32 LZ4_read32(const void* ptr) { return ((const unalign*)ptr)->u32; }
191 static void LZ4_write32(void* memPtr, U32 valu
[all...]
H A Dlz4opt.h89 U32* const HashTable = ctx->hashTable;
91 const U32 dictLimit = ctx->dictLimit;
92 const U32 current = (U32)(ip - base);
93 const U32 lowLimit = (ctx->lowLimit + MAX_DISTANCE > current) ? ctx->lowLimit : current - (MAX_DISTANCE - 1);
99 U32 matchIndex;
101 U32* HashPos;
173 const U32 target = (U32)(ip - base);
174 U32 id
[all...]
H A Dlz4hc.c90 static U32 LZ4HC_hashPtr(const void* ptr) { return HASH_FUNCTION(LZ4_read32(ptr)); }
114 U32* const hashTable = hc4->hashTable;
116 U32 const target = (U32)(ip - base);
117 U32 idx = hc4->nextToUpdate;
120 U32 const h = LZ4HC_hashPtr(base+idx);
138 U32* const HashTable = hc4->hashTable;
141 const U32 dictLimit = hc4->dictLimit;
142 const U32 lowLimit = (hc4->lowLimit + 64 KB > (U32)(i
[all...]
/external/vulkan-validation-layers/layers/
H A Dxxhash.c139 typedef uint32_t U32; typedef
143 typedef unsigned int U32; typedef
150 static U32 XXH_read32(const void* memPtr) { return *(const U32*) memPtr; }
156 typedef union { U32 u32; } __attribute__((packed)) unalign;
157 static U32 XXH_read32(const void* ptr) { return ((const unalign*)ptr)->u32; }
164 static U32 XXH_read32(const void* memPtr)
166 U32 val;
193 static U32 XXH_swap32 (U32
[all...]
/external/tensorflow/tensorflow/compiler/xla/
H A Dprimitive_util.cc34 return type == U8 || type == U16 || type == U32 || type == U64;
56 case U32:
H A Dprimitive_util.h70 return U32;
167 struct PrimitiveTypeToNative<U32> {
/external/vixl/tools/test_generator/
H A Ddata_types.py284 how they should be represented and printed, see the `U32` class for an
345 class U32(Scalar): class in inherits:Scalar
382 class Register(U32):
408 class NZCV(U32):
449 class Q(U32):
489 class GE(U32):
521 class FPSCR(U32):
/external/skia/src/jumper/
H A DSkJumper_stages.cpp64 using U32 = uint32_t;
76 SI U32 round (F v, F scale) { return (uint32_t)(v*scale + 0.5f); }
77 SI U16 pack(U32 v) { return (U16)v; }
83 SI T gather(const T* p, U32 ix) { return p[ix]; }
124 using U32 = V<uint32_t>;
134 SI U16 pack(U32 v) { return __builtin_convertvector(v, U16); }
137 SI F if_then_else(I32 c, F t, F e) { return vbslq_f32((U32)c,t,e); }
143 SI U32 round(F v, F scale) { return vcvtnq_u32_f32(v*scale); }
158 SI U32 round(F v, F scale) {
165 SI V<T> gather(const T* p, U32 i
[all...]
H A DSkJumper_stages_lowp.cpp40 using U32 = uint32_t __attribute__((ext_vector_type(16)));
47 using U32 = uint32_t __attribute__((ext_vector_type(8)));
148 SI U32 if_then_else(I32 c, U32 t, U32 e) { return (t & c) | (e & ~c); }
195 SI U32 trunc_(F x) { return (U32)cast<I32>(x); }
407 SI U32 ix_and_ptr(T** ptr, const SkJumper_GatherCtx* ctx, F x, F y) {
409 limit = bit_cast<F>( bit_cast<U32>(limit) - 1 ); // Exclusive -> inclusive.
470 SI V gather(const T* ptr, U32 i
[all...]
/external/skqp/src/jumper/
H A DSkJumper_stages.cpp64 using U32 = uint32_t;
76 SI U32 round (F v, F scale) { return (uint32_t)(v*scale + 0.5f); }
77 SI U16 pack(U32 v) { return (U16)v; }
83 SI T gather(const T* p, U32 ix) { return p[ix]; }
124 using U32 = V<uint32_t>;
134 SI U16 pack(U32 v) { return __builtin_convertvector(v, U16); }
137 SI F if_then_else(I32 c, F t, F e) { return vbslq_f32((U32)c,t,e); }
143 SI U32 round(F v, F scale) { return vcvtnq_u32_f32(v*scale); }
158 SI U32 round(F v, F scale) {
165 SI V<T> gather(const T* p, U32 i
[all...]
H A DSkJumper_stages_lowp.cpp40 using U32 = uint32_t __attribute__((ext_vector_type(16)));
47 using U32 = uint32_t __attribute__((ext_vector_type(8)));
148 SI U32 if_then_else(I32 c, U32 t, U32 e) { return (t & c) | (e & ~c); }
195 SI U32 trunc_(F x) { return (U32)cast<I32>(x); }
407 SI U32 ix_and_ptr(T** ptr, const SkJumper_GatherCtx* ctx, F x, F y) {
409 limit = bit_cast<F>( bit_cast<U32>(limit) - 1 ); // Exclusive -> inclusive.
470 SI V gather(const T* ptr, U32 i
[all...]
/external/tensorflow/tensorflow/compiler/tf2xla/
H A Dtype_util.cc47 *type = xla::U32;

Completed in 533 milliseconds

1234