search for: gfproxyd

Displaying 4 results from an estimated 4 matches for "gfproxyd".

2019 Dec 28
1
GFS performance under heavy traffic
...? ? ? ? ? ? ? >> storage.max-hardlinks ? ? ? ? ? ? ? ? ? 100 ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? >> storage.ctime ? ? ? ? ? ? ? ? ? ? ? ? ? off ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? >> storage.bd-aio ? ? ? ? ? ? ? ? ? ? ? ? ?off ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? >> config.gfproxyd ? ? ? ? ? ? ? ? ? ? ? ? off ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? >> cluster.server-quorum-type ? ? ? ? ? ? ?off ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? >> cluster.server-quorum-ratio ? ? ? ? ? ? 0 ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? >> changelog.changelog ? ? ? ? ? ? ? ? ? ? off ?...
2019 Dec 27
0
GFS performance under heavy traffic
...? ? ? ? ? ? ? ? ? ? ? ? ? ? ? > storage.max-hardlinks ? ? ? ? ? ? ? ? ? 100 ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? > storage.ctime ? ? ? ? ? ? ? ? ? ? ? ? ? off ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? > storage.bd-aio ? ? ? ? ? ? ? ? ? ? ? ? ?off ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? > config.gfproxyd ? ? ? ? ? ? ? ? ? ? ? ? off ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? > cluster.server-quorum-type ? ? ? ? ? ? ?off ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? > cluster.server-quorum-ratio ? ? ? ? ? ? 0 ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? > changelog.changelog ? ? ? ? ? ? ? ? ? ? off ? ? ? ? ? ? ?...
2019 Dec 24
1
GFS performance under heavy traffic
Hi David, On Dec 24, 2019 02:47, David Cunningham <dcunningham at voisonics.com> wrote: > > Hello, > > In testing we found that actually the GFS client having access to all 3 nodes made no difference to performance. Perhaps that's because the 3rd node that wasn't accessible from the client before was the arbiter node? It makes sense, as no data is being generated towards
2018 Mar 19
3
Gluster very poor performance when copying small files (1x (2+1) = 3, SSD)
Hi, On 03/19/2018 03:42 PM, TomK wrote: > On 3/19/2018 5:42 AM, Ondrej Valousek wrote: > Removing NFS or NFS Ganesha from the equation, not very impressed on my > own setup either.? For the writes it's doing, that's alot of CPU usage > in top. Seems bottle-necked via a single execution core somewhere trying > to facilitate read / writes to the other bricks. > >