xfs + raid5

Jan Derfinak ja na mail.upjs.sk
Sobota Březen 6 18:32:28 CET 2004


On Fri, 5 Mar 2004, Jan Hradil wrote:

> Mar  4 12:01:23 brain kernel: raid5: switching cache buffer size, 4096
> --> 512
> Mar  4 12:01:23 brain kernel: raid5: switching cache buffer size, 512
> --> 4096

XFS ma zapisy meta dat o velkosti sektoru co je default 512. Zapisy dat su o
velkosti bloku co je default 4096. SW RAID Vas o tejto skutocnosti
informuje. Je mozne odstranit to vytvorenim FS, ktory bude mat velkost
sektoru = velkosti bloku.

> Mar  4 18:15:46 brain kernel: xfs_inotobp: xfs_imap()  returned an error
> 22 on md(9,0).  Returning error.
> Mar  4 18:15:46 brain kernel: xfs_iunlink_remove: xfs_inotobp() 
> returned an error 22 on md(9,0).  Returning error.
> Mar  4 18:15:46 brain kernel: xfs_inactive:     xfs_ifree() returned an
> error = 22 on md(9,0)
> Mar  4 18:15:46 brain kernel: xfs_force_shutdown(md(9,0),0x1) called
> from line 1844 of file xfs_vnodeops.c.  Return address = 0xc2ae1ff0
> Mar  4 18:15:46 brain kernel: raid5: switching cache buffer size, 4096
> --> 512
> Mar  4 18:15:46 brain kernel: Filesystem "md(9,0)": I/O Error Detected. 
> Shutting down filesystem: md(9,0)
> Mar  4 18:15:46 brain kernel: Please umount the filesystem, and rectify
> the problem(s)

Tu Vas xfs informuje, ze nemohlo dokoncit operacie z dovodu chyby na
disku a na zaklade toho odpojilo FS (co je akysi sposob ochrany FS).

Osobne ma pocit, ze by to mohla byt nejaka HW chyba (pamat...) alebo nejaka
chyba v SW RAIDe (mam pocit, ze sa tam nieco v poslednych 2.4 kerneloch
opravovalo). Pomocou xfs_check si mozte overit, ci je potrebne opravovat FS.


> 
>  System:  Suse 8.1 z ftp, jen originalni baliky. 

Mate posledny update jadra? Aku verziu tam mate?

				jano

-- 


Další informace o konferenci Linux